كشف موقع «ذي إنترسبت» الأمريكي في تقريره أنَّ وزارة الأمن الداخلي الأمريكية تعاقدت مع شركةٍ خاصةٍ في ولاية فرجينيا لتطوير خوارزمية برنامجٍ حاسوبيٍ يمتلك القدرة على تحديد الأشخاص الذين من المحتمل أن يشاركوا في أنشطةٍ إرهابية. أوضح الموقع أنَّه نادرًا ما يُسمح للمواطنين بمعرفة الوسائل المُتَّبعة للحفاظ على أمنهم في أي مكان. وحين يركبون الطائرة، يخضع الناس لقواعدَ وقوائمَ مراقبةٍ سريةٍ وكاميراتٍ خفيةٍ وأنظمة رصد، كلها أجزاءٌ من ثقافة المراقبة المزدهرة والمنتشرة في العالم حاليًا. لكن وزارة الأمن الداخلي الأمريكية الآن تعكُف على تعقيد تلك الثقافة أكثر بالتعاقد مع الشركةٍ لتطوير نظام يمكنه الإبلاغ عن أي شخصٍ قد يُحاول تفجير الطائرة.

وفقًا للموقع، ستُزوِّد منظومة وزارة الأمن الداخلي الجديدة المطارات الأجنبية ببرنامجٍ حاسوبيٍ مجاني يتعلَّم ذاتيًا كيفية التعرُّف على الأشرار، في استمرارٍ لنزعة استبدال تقنيات تعلُّم الآلة بالحُكم البشري.

وفازت بعقد الوزارة شركة «داتا روبوت»، شركة التعلُّم الآلي المؤتمت التي يقع مقرها في فرجينيا، من أجل تطوير «نماذج تنبؤية لتعزيز قدرة التعرُّف على الرُكَّاب ذوي الخطورة العالية» ببرنامجٍ حاسوبيٍ «يوفر  تنبؤاتٍ فوريةٍ خلال مدة استجابةٍ معقولة» لا تتخطى الثانية الواحدة، وفقًا لوثيقةٍ تستعرض البرنامج من الناحية التقنية، كُتِبت للمتعهدين المحتملين وحصل موقع «ذي إنترسبت» على نسخةٍ منها.

يفترض العقد أنَّ البرنامج الحاسوبي سيتوصل إلى استنتاجاتٍ إيجابيةٍ خاطئةٍ، مما يستوجب زيادة دقة خوارزمية التنبؤ بـ«الإرهابيين» حين تُبلَغ بتلك الأخطاء. وتُجري شركة «داتا روبوت» اختباراتها على البرنامج الحاسوبي الآن، وفقًا للبيان الإعلامي الذي أصدرته وزارة الأمن الداخلي.

وينص العقد أيضًا على أنَّ تنبؤات البرنامج يجب أن تكون قادرةً على العمل بناءً على البيانات المُستقاة من سجلات التذاكر والدراسات الديموجرافية للسكان «فقط»، أي اعتمادًا على عددٍ من المعاييرَ مثل المطار الذي جاء منه المسافر، والاسم وتاريخ الميلاد، والجنس والجنسية. ويُمكن للبرنامج الاستفادة أيضًا من مدخلاتٍ أكثر تعقيدًا، مثل اسم وكيل السفر ورقم المقعد، ومعلومات بطاقة الائتمان وخط سير الرحلة بالكامل.

وتصف الوثيقة حالةً يُمكن فيها للبرنامج «التنبؤ بما إذا كان راكبٌ أو مجموعةٌ من الركاب ينوون الانضمام إلى جماعةٍ «إرهابيةٍ» في الخارج، استنادًا إلى العمر والعنوان المحلي والوجهة، و/أو مطارات الترانزيت ومعلومات مسار الرحلة (رحلة ذهاب أو ذهاب وعودة)، ومدة الإقامة، ومعلوماتٍ عن الأمتعة، وغيرها، وبالمقارنةً مع الحالات المعروفة».

تكسب شركة «داتا روبوت» قوتها من تحويل كمياتٍ ضخمةٍ من كنوز البيانات الأولية، التي تجمعها كافة الشركات المعاصرة، إلى تنبؤاتٍ بالأفعال المستقبلية، التي ترغب فيها جميع الشركات المُعاصرة. وتشمل قائمة عملائها شركة «مونسانتو» وشركة «إن كيو تيل»، الذراع الاستثماري لوكالة الاستخبارات المركزية الأمريكية.

ولا يتطلَّع كل عملاء «داتا روبوت» لاستخدام تنبؤاتها في زيادة أرباحهم، إذ تُخطِّط وزارة الأمن الداخلي لدمج كود البرنامج داخل نظام الوزارة القائم بالفعل، والذي يحمل اسم النظام العالمي لتقييم السفر (GTAS)، وهو عبارةٌ عن مجموعةٍ من الأدوات التي صدرت باعتبارها برنامجًا مفتوح المصدر، وصُمِّمَت لتُسهِّل على الدول إصدار قوائم حظر تُشبه تلك التي تستخدمها الولايات المتحدة.

ويوضح موقع «ذي إنترسبت» أنَّه وفقًا لوثيقة استعراض البرنامج، فإنَّ عقد برنامج التنبؤ الخاص بوزارة الأمن الداخلي «سيدعم مُحرك النظام العالمي لتقييم السفر وخصائص المطابقة في قوائم المراقبة بتلك النماذج التنبؤية، من أجل تعزيز قدرة التعرُّف على الركاب الذين يمثلون خطرًا كبيرًا». وبعبارةٍ أخرى، قررت الحكومة أنَّ الوقت قد حان ليتخطى العالم مرحلة إدراج الأسماء في قائمةٍ للأشرار ومقارنة أسماء الرُكاب بتلك القائمة.

وفضلًا عن ذلك، يُمكن لبرنامجٍ حاسوبيٍ متطورٍ أن يتعرَّف إلى المُسافرين الخطرين أسرع مما يحلم به البشر، ويسعه أيضًا العمل على مدار الساعة مُعتمدًا على الكهرباء فقط. ولم يتضح مدى الرقابة البشرية على النظام العالمي لتقييم السفر بعد. إذ تُشير الوثيقة إلى وجود درجةٍ من الاستقلالية، وتوضح أنَّه من الضروري ليعمل البرنامج بكفاءة أن «يُعزِّز بيانات قوائم المراقبة أوتوماتيكيًا بيانات الركاب الذين تعرَّف إليهم و(ثبُتت) خطورتهم العالية».

«ذي أتلانتيك»: لماذا لا يجب إغلاق «جهادولجي» أكبر موقع لأرشيف الجهاديين؟

وتُشير الوثيقة باستمرارٍ إلى ما يسميهم بـ«محلِّلي الاستهداف»، وهم المحللون الذين يُراجعون النتائج التي يُصدرها النظام، لكن يبدو أنَّ عملية معالجة البيانات الضمنية تقع بالكامل ضِمن نطاق اختصاصات البرنامج، ولم تُعرف بعد مدى قُدرة المحللين المزعومين على التحقُّق من تلك التنبؤات أو الاعتراض عليها.

وأعرب دانيال خان جيلمور، المستشار التقني البارز بالاتحاد الأمريكي للحريات المدنية، عن مخاوفه بشأن انعدام اللمسة البشرية في البرنامج، وقال في رسالة بريدٍ إلكتروني لموقع «ذي إنترسبت»: «فضلًا عن مُطوِّري البرنامج ومُشغِّلي النظام (الذي لم تُوضَّح كيفية عمله حتى الآن)، يبدو أنَّ أغلب مهام النظام العالمي لتقييم السفر سيُمكن تشغيلها في وضع الطيار الآلي إذا اختار المُشتري/المستخدم تشغيلها بتلك الطريقة».

وحذَّر جيلمور من أنَّ تضمين العنصر البشري في المعادلة قد يكون أمرًا مُضلِّلًا من ناحية المُساءلة، موضحًا أنَّه «حتى لو كان مخطط الإشراف البشري الكفء هذا موجودًا داخل تصميم برنامج النظام العالمي لتقييم السفر والنماذج التي يعتمد عليها (لا أرى مُؤشِّرًا على ذلك)، فهو برنامجٌ مجاني يُمكن أن يعمل دون تلك القيود. وربما تميل الدول ذات العمالة باهظة الثمن (أو المثيرة للجدل أو التي يُحتمل أن تكون فاسدةً) إلى تعديل البرنامج ببساطةٍ لمحو مُتطلَّبات التدخُّل البشري قبل تشغيل البرنامج».

أمَّا بالنسبة لكارهي سياسات المراقبة، فيعرض موقع «ذي إنترسبت» الفكرة التالية: هل تفضل أن يُترك قرار تحديد من يصلح للسفر في يد مجموعةٍ من المسؤولين الحكوميين الذين يجتمعون سرًا دون إلزامٍ بالكشف عن طريقة عملهم؟ أم سيكون من الأفضل أن يتخذ الحاسوب الذي يخضع لكوده فقط مثل ذلك القرار؟ من الصعب التعايش مع مفهوم التنميط في حد ذاته، فهو ممارسةٌ تتحول بسهولةٍ إلى التحيز والتعصب أكثر من كونها وسيلةً لأخذ الحيطة والحذر. لكن من السهل العثور على شخصٍ لتحميله المسؤولية حين يُجري موظفون حكوميون يرتدون زيًا رسميًا عمليات المراقبة في حال تعرضت امرأةٌ ترتدي غطاء رأسٍ لمشاحنةٍ لا داعي لها مثلًا، أو أُوقِف رجلٌ ذو بشرةٍ داكنةٍ من أجل تفتيشٍ إضافي.

وإذا طلبت رأي وزارة الأمن الداخلي، ستخبرك أنَّ هذا الوضع هو الأفضل لكل الأطراف المعنية. إذ سيتسنّى للحكومات الأجنبية التمتُّع بمستوًى أعلى من الفحص الأمني، وستحمل الولايات المتحدة قدرًا أكبر من الثقة تجاه ملايين الأجانب الذين يدخلون البلاد سنويًا، وسيُمكن للركاب تناول مشروبهم المجاني مُطمئنين إلى أنَّ الراكب المجاور ليس إرهابيًا وفقًا لخوارزمية «داتا روبوت».

لكنَّ قوائم المراقبة، وهي واحدةٌ من أكثر الملامح سيئة السمعة لهوس الأمن القومي في أعقاب الحادي عشر من سبتمبر (أيلول)، مشكوكٌ في شرعيتها ومدى فاعليتها. إذ قدَّر تقريرٌ نشره موقع «ذي إنترسبت» عام 2014 وجود 680 ألف مُدخَل في «قاعدة بيانات فحص الإرهابيين» الأمريكية، وهي مجموعةٍ من بيانات مكتب التحقيقات الفيدرالي الأمريكي تُستقى منها قوائم الممنوعين من السفر، ومن بين هذه المدخلات نحو 280 ألف فردٍ «لا ينتمون لجماعةٍ إرهابية معروفة».

وفي العام نفسه، أصدر قاضي محكمة إحدى المقاطعات الأمريكية حُكمه لصالح دعوى قضائيةٍ رفعها الاتحاد الأمريكي للحريات المدنية بعدم دستورية قوائم المنع من السفر. ويُمكن استخدام القوائم من جديد في حال حسَّنت الحكومة من الآليات التي تُتيح للأفراد الاعتراض على إدراج أسمائهم فيها، وهي العملية التي تنطوي في أبسط صورها على إشراك الموظفين الحكوميين، الذين يجتمعون للتداول سرًا.

لكن ماذا سيحدُث إذا تعرَّف عليك النظام بصفتك «إرهابيًا» عن طريق الخطأ؟ اكتسبت تقنيات تعلُّم الآلة والتنبؤ بالسلوكيات انتشارًا واسعًا في الآونة الأخيرة، وكما أفاد تقريرٌ سابق نشره موقع «ذي إنترسبت» في وقتٍ مبكِّر من العام الماضي، يبيع موقع «فيسبوك» خدماته للمعلنين استنادًا إلى قدرته على التنبؤ بأفعالك واستباقها.

لكن عادةً ما تكون عواقب الخطأ في التنبؤ بسلوكيات المستهلكين منخفضةً للغاية: فإذا أخطأت خوارزميةٌ تسويقيةٌ في التنبؤ بأنَّك من هواة الصيد بالحشرات الصناعية وأنت لا تهتم بالأمر في الواقع، لن يُشكِّل هذا الاستنتاج الخاطئ أكثر من مضيعةٍ مزعجةٍ للوقت. لكنَّ العواقب في حالة نظام التعرُّف إلى الإرهابيين في المطارات أكثر بكثير.

ماذا سيحدث إذًا حين يُخطئ نظام وزارة الأمن الداخلي، حين يتنبأ بأمرٍ لا أساس له من الصحة ويتسبب ذلك في تشويه سمعة شخصٍ بريءٍ لا ينوي «الانضمام إلى جماعةٍ إرهابيةٍ في الخارج»؟ يشعر المدافعون عن الحقوق المدنية بالقلق إزاء احتمالية وقوع مثل تلك الأخطاء التي يُحتمل أن تُقوِّض حيوات الناس، فضلًا عن تشكيكهم في ما إذا كانت مثل تلك التنبؤات الدقيقة مُمكنةً من الناحية التكنولوجية. ووفقًا لوزارة الأمن الداخلي، فإنَّ برنامجها التنبؤيّ سيعتمد على معلوماتٍ قليلةٍ نسبيًا ليتوقع هجمةً «إرهابيةً» وشيكة.

خريطة الأمان في العالم 2018.. هذه الدول العربية أكثر أمانًا من أمريكا!

ويضيف موقع «ذي إنترسبت» أنَّه حتى بالنسبة لمدخلات البيانات البسيطة من هذا النوع، تُحذِّر هيئات الرقابة على الخصوصية من أنَّ التحيزات تجد طريقها دائمًا إلى النظام، وهو الأمر الذي يزداد سوءًا تحت رعاية الذكاء الصناعي الذي يتعلَّم ذاتيًا. وقالت فايزة بطل، المديرة المشاركة لبرنامج الحريات والأمن القومي في مركز «برينان»، في تصريحٍ لموقع «ذي إنترسبت» إنَّ تزويد برنامج قوائم المراقبة بقدراتٍ تنبؤيةٍ سيُضفي عليها فقط قشرة الحيادية.

وتابعت فايزة: «هذه الخوارزميات ستُكرِّر التحيُّزات وتُصدر تنبؤاتٍ مُتحيِّزة»، وشبَّهت الأمر بالحالات التي تُوزَّع فيها قوات الشرطة وفقًا للخوارزميات في الأحياء «الخطرة» بناءً على بيانات الجرائم المُتحيِّزة عنصريًا، وهي عمليةٌ ينتج عنها اعتقالاتٌ على أساسٍ عنصريٍ، لكن بالنسبة للنظام فقد أتم عمله وفقًا للبيانات.

وتضيف فايزة أنَّه في نظامٍ مُستدامٍ ذاتيًا كهذا «تُصبح بحوزتك حينها جميع البيانات التي تُؤكد ما أخبرتك به الخوارزمية في المقام الأول، مما يخلق دائرةً مُغلقة تُعزز نفسها نتيجة البيانات التي يُعاد إدخالها في النظام». ففي النهاية، نوعية الأشخاص الذين يُضافون إلى قائمة المراقبة هم الأفراد الذين يُمثلون الأشخاص الموجودين بالفعل على قائمة المراقبة.

ويرى الموقع أنَّ منظومة وزارة الأمن الداخلي ستُضيف بهذا دفعةً حاسوبيةً تُفاقم التحيُّزات المتوطِّنة داخل نظام قوائم المراقبة الأمريكي. إذ تشير وثيقة استعراض هذا النظام الذي يحاول التنبؤ بالمشبوهين بناءً على أوصاف وأنماط معينة مرارًا وتكرارًا إلى حقيقة أنَّه سيغذي نفسه في دائرةٍ مغلفة. وتقول الوثيقة إنَّ النظام الجديد «سيُضيف الرُكاب الذين «ثبُتت» خطورتهم العالية إلى بيانات قوائم المراقبة تلقائيًا»، ومسألة ثبوت خطورة الركاب نفسها تحمل الكثير من الإشكاليات.

وتقرأ في قسمٍ آخر من الوثيقة أنَّ قدرات البرنامج التنبؤية «سيُمكنها أن تتطور بمرور الوقت مع توليد النظام نتائجَ فعلية عن نزوع الركاب لارتكاب هجماتٍ إرهابية، وما ثبت صحته أو خطؤه منها». ونظرًا إلى أنَّ إطار العمل الحالي لقوائم المراقبة تسبَّب في توريط آلاف الأبرياء، فإنَّ فكرة «تغذية» هذا النوع من «التوقعات» داخل نظامٍ سيبحث بجهدٍ أكبر في ما بعد عن أشخاصٍ من نفس النوع هو أمرٌ بالغ الخطورة.

والتكتم على المعايير الخاصة بتحديد ما إذا كان الشخص يُعتبر «خَطِرًا» أم لا هو أيضًا أمرًا سخيفًا، إذ يُصبح حينها من المستحيل على أي شخصٍ خارج المنظومة التفرقة بين التوقعات الخاطئة والصحيحة. وحتى بالنسبة للأشخاص الذين لا يميلون إلى مناصرة الحقوق المدنية، فإنَّ فكرة وجود جهازٍ للكشف تلقائيًا عن «الأشرار» يستخدم تعريفًا سريًا لوصف «الأشرار»، ويتعلم كيفية التعرف على «الأشرار» بطريقةٍ أفضل مع كل مرةٍ يقبض فيها على واحدٍ من أولئك «الأشرار»، هي فكرةٌ تُعَدُّ مُضحكةً لولا تصديق الحكومة الفيدرالية عليها.

وبالنسبة لأولئك المنزعجين من حقيقة أنَّ النظام حقيقي وتختبره الآن شركةٌ أمريكية، فإنَّ ما يخيف أكثر هو حقيقة أنَّ الحكومة وشركة «داتا روبوت» لن يكشفا أي تفاصيلَ عن البرنامج. وحين سُئِل جون فيريكو، المتحدث باسم إدارة العلوم والتكنولوجيا في وزارة الأمن الداخلي، عن مكان اختبار النسخة الأولية من قوائم المراقبة التنبؤية حاليًا، أجاب في تصريحٍ لموقع «ذي إنترسبت»: «لا أعتقد أنَّ ذلك القرار قد اتُخِذ حتى الآن»، وأكَّد على أن البرنامج مُصممٌ ليُستخدم مع الأجانب. وأحال فيريكو الأسئلة الإضافية بشأن موقع إجراء الاختبار و«معايير الخطورة» التي ستُدرَّب الخوارزمية على البحث عنها إلى شركة «داتا روبوت».

وقالت ليبي بوتسفورد، المتحدثة باسم الشركة، في تصريحٍ لموقع «ذي إنترسبت» إنَّها ما تزال تُحاول «تتبُّع المعلومات التي طلبها الموقع من الحكومة، لكنَّها لم تنجح في ذلك»، وأضافت في ما بعد: «لستُ مُخوَّلةً بالحديث عن الأمر. أنا آسفة». وتعرَّضت الطلبات التي أُرسِلت لاحقًا إلى وزارة الأمن الداخلي وشركة «داتا روبوت» للتجاهل.

ويضيف موقع «ذي إنترسبت» أنَّ تأكيد فيريكو على أنَّ برنامج قوائم المراقبة هو أداةٌ موجَّهةٌ إلى الخارج وتُمنح للحكومات الأجنبية، وليست وسيلةً للمراقبة محليًا، هو مراوغةٌ مُثيرة للاهتمام، نظرًا لأنَّ أعدادًا كبيرةً من الأمريكيين يسافرون عن طريق مطاراتٍ غير أمريكيةٍ بصفةٍ يومية. لكنَّ ذلك التأكيد يُخفي وراءه طموحاتٍ تتخطى النظام العالمي لتقييم السفر، تتمثل في تصدير منظومة الأمن القومي الأمريكي الغامضة إلى بقية أنحاء العالم، والتطلُّع إلى تضمين جميع الوجهات في كل الدول في نظام مراقبة واحد مترابط.

فلماذا قد تتكبَّد عناء البحث وسط الأعداد المهولة التي تدخل الولايات المتحدة للعثور على الأفراد «الخطرين» في حين يُمكنك نقل هذه العملية المرهقة بأكملها إلى دولةٍ أخرى؟ ووجود هذه الشبكة العالمية من الروبوتات التنبؤية لفحص المسافرين بحثًا عن «الإرهابيين» في كل مطارٍ سترفع عن الولايات المتحدة الكثير من الضغوطات الثقيلة والكريهة سياسيًا.

يلقي الفحص التنبؤي هذا بمسؤولية تلك الإجراءات على جهاتٍ أخرى بعيدًا عن وزارة الأمن الداخلي. إذ يشرح جيلمور أنَّ توفير تلك الأدوات للدول الأخرى يعني أنَّ تلك الوكالات الخارجية ستمنع الناس من السفر حتى لا تواجههم وزارة الأمن الداخلي، مما يرفع حرج المساءلة عن الوزارة إن أصدر النظام توقعاتٍ خاطئة تسببت في ضررٍ لأحدهم، ووصف جيلمور النظام بأنَّه «وسيلةٌ هادئة لاستعراض نفوذ الولايات المتحدة وتطبيقه خارج الحدود».

وحتى في هذه المرحلة المُبكِّرة من عمره، تبدو وزارة الأمن الداخلي متلهفةً لإخلاء مسؤوليتها عن النظام الذي تُحاول نشره حول العالم: فحين تجاهل فيريكو الأسئلة بشأن ما سيعتبره النظام سماتٍ «خطرةً» في أي شخص، أضاف في رسالته البريد الإلكتروني أنَّ «معيار الخطورة تُحدِّده كياناتٌ أخرى خارج الولايات المتحدة، ولسنا نحن من نقوم بذلك. وأعتقد أنَّهم لن يرغبوا في إطلاع الأشرار على ما يبحثون عنه في جميع الأحوال». ولم تُجِب وزارة الأمن الداخلي حين سُئلت عمَّا إذا كانت هناك خطط لتطبيق النظام العالمي لتقييم السفر داخل الولايات المتحدة.

وهناك أيضًا مسألة الطعون. إذ ربما يسعى الأشخاص المدرجون على قوائم مراقبة وزارة الأمن الداخلي حاليًا إلى الحصول على تعويضٍ قانوني. ورغم أنَّ المُدافعين عن الحريات المدنية يعتبرون نظام الطعون غير ملائمٍ بشكلٍ عام، فهو يُوفِّر فرصةً ولو بسيطة لمحو الشخص من القائمة على الأقل. لكنَّ الوثائق المتعلقة بعقد «داتا روبوت» للنماذج التنبؤية لا تأتي على أي ذكرٍ لنظام طعونٍ مخصص للأشخاص الذين تعتبرهم الخوارزمية مصدرًا للخطورة، ولا تُورِد وثيقة العرض العام التي أصدرتها وزارة الأمن الداخلي أي متطلباتٍ تُلزِم البرنامج بتوضيح كيفية توصُّله إلى استنتاجاته.

وتظل المساءلة مشكلةً أساسيةً في مجال تعلُّم الآلة والتنبؤ الحاسوبي، وسط إصرار بعض علماء الحاسوب على أنَّ أي خوارزميةٍ أخلاقية يجب أن تكون قادرةً على عرض عملها، بينما يعترض علماء آخرون على ذلك مستندين إلى فكرة أنَّ هذا النوع من الشفافية يُقوِّض دقة التنبؤات.

«الجهاديون» ليسوا مسلمين فقط.. أشهر 4 جماعات مسيحية ويهودية مسلحة في العالم

ووفقًا للتقرير، يرى قدير عباس، محامي مجلس العلاقات الأمريكية الإسلامية الذي أمضى سنواتٍ في مقاضاة الحكومة الأمريكية بشأن قوائم المراقبة، أنَّ برنامج وزارة الأمن الداخلي يُعَدُّ خبرًا سيئًا آخر بالنسبة للسكان الذين يتعرضون للمراقبة بغير وجه حق. ويقول عباس إنَّ الحكومة الأمريكية حتى الآن «لم تتمكن من إصدار مجموعةٍ واحدةٍ من القوانين التي تتمتَّع بأي درجةٍ من الفاعلية. ولذا فإنَّ الاعتقاد بأنَّها ستنجح في أتمتة تطوير تلك القواعد هو مثالٌ آخرٌ على تقديس التكنولوجيا الذي يُحرِّك قدرًا كبيرًا من سياسات مكافحة الإرهاب».

وأضاف عباس أنَّ المفهوم الكامن وراء صُنع برنامجٍ لإعداد قوائم المراقبة قادرٍ على التنبؤ بالنشاطات الإرهابية هو مفهومٌ محكومٌ عليه بالفشل رياضيًا، وشبَّه النظام بـ«نسخةٍ رديئةٍ من فيلم Minority Report … وحتى لو نجحوا في صُنع روبوتٍ جيدٍ للغاية، ودقيقٍ بنسبة 99%، فإنَّ حقيقة الندرة الشديدة للهجمات الإرهابية وسط الإحصائيات المجردة تعني أنَّه سيُنتج ملايين التوقعات الخاطئة … ستُؤدي الأتمتة إلى تفاقم كافة الجوانب السيئة لنظام قوائم المراقبة».

ويُوافق جيلمور الرأي في أنَّ هذه المهمة تتخطى قدرات الحواسيب بكل بساطة: «بالنسبة للنتائج مُنخفضة الانتشار مثل النشاط الإرهابي، على الأرجح تخرج أنظمة التنبؤ باستنتاجاتٍ خاطئة. فحين تكون احتمالية الإصابة بمرضٍ تُساوي واحدًا في المليون، فإنَّ الاحتمال المؤكد هو الخروج بتشخيصٍ سلبي. لكنَّ هذه الأنظمة ليست مخصصةً لذلك. إذ يتعيَّن عليها (تشخيص) بعض الحالات إيجابيًا لإثبات وجودها. لذا، سيقوم النظام بالإبلاغ خطأً عن العديد من الركاب الذين لا علاقة لهم بالإرهاب، وسيفعل ذلك استنادًا إلى البيانات المنقوصة التي توافرت أمامه».

ويختتم موقع «ذي إنترسبت» تقريره موضحًا أنَّ برامج التنبؤ لا تُعد جزءًا من المستقبل فقط، بل هي واقعٌ مُعاصرٌ أيضًا. وسيُصبح توسُّعها أمرًا شائعًا عما قريب، لتشمل طريقة تسوُّقنا وطريقة حفظ الأمن وطريقة سفرنا، حتى لو لم نعِ ذلك. وتُمثِّل مسألة تحديد أعداء الدولة استنادًا إلى نظامٍ إلكتروني قفزةً جوهريةً خطيرةً في كيفية تقييم المجتمعات للمخاطر المحيطة بها. إذ يُشكِّل عدد الأفراد الذين سينخرطون في أنشطةٍ إرهابية في المستقبل شريحةً متناهية الصغر من تعداد سكان العالم، لكنَّ أعداد الأشخاص المُدرجين على قوائم المراقبة والقوائم السوداء كبيرةٌ للغاية. والسماح لبرنامجٍ بإجراء عملية الفرز، بغض النظر عن مدى ذكائه وكفاءته التي نُحاول إقناع أنفسنا بها، سيتسبب على الأرجح في تفاقم حجم هذا الظلم.

هذا المقال مترجمٌ عن المصدر الموضَّح أعلاه؛ والعهدة في المعلومات والآراء الواردة فيه على المصدر لا على «ساسة بوست».

عرض التعليقات
تحميل المزيد