(الشركة تكشف عن طرقها بعد تعرضها لانتقادات)

نشر موقع «وايرد» تقريرًا كشف فيه النقاب عن استخدام «فيسبوك» لتقنيات الذكاء الاصطناعي لمكافحة الإرهاب خصوصًا بعد تعرض المملكة المتحدة إلى ثلاث هجمات إرهابية كبيرة في عام 2017، وقعت في وستمينستر ومانشستر وجسر لندن، فقدَ على أثرها 35 شخصًا حياتهم. وكان وزراء في حكومة المملكة المتحدة قد اتهموا الشبكات الاجتماعية، في أعقاب كل هذه الهجمات، بأنها لا تفعل ما يكفي لمكافحة المواد المتطرفة.

أعلنت رئيس الوزراء البريطانية، تيريزا ماي، أنَّ الشركات التي لا تكافح المواد المرتبطة بالإرهاب ربما تتعرض للغرامة بموجب قانون جديد تخطط له ماي. واستجابة لذلك، ردت شركات فيسبوك وجوجل وتويتر على هذه التلميحات بأنها لا تفعل ما يكفي.

فقد بدأت تدوينة على فيسبوك لاثنين من العاملين بالشركة هما مونيكا بيكرت، مديرة إدارة السياسة العالمية، وبرايان فيشمان، مدير سياسة مكافحة الإرهاب، بالقول: «في أعقاب الهجمات الإرهابية الأخيرة، تساءل الناس عن دور شركات التقنية في مكافحة الإرهاب على الإنترنت».

وقال الموقع إنَّ الاثنين قد كشفا، في منشور بلغ طوله 1700 كلمة، كيف تستخدم شركتهما الذكاء الاصطناعي في محاولاتها لمنع المواد المتطرفة المنشورة على مجموعات وصفحات ورسائل فيسبوك. وقال فيشرمان وبيكرت إنَّ الذكاء الاصطناعي يستخدم في خمسة مجالات مختلفة.

اقرأ أيضًا: «الجارديان»: عمالقة التكنولوجيا يتحكمون في حياتنا بالتلاعب بالبيانات

تشمل هذه المجالات مطابقة الصور، إذ جاء في التدوينة: «عندما يحاول أحدهم رفع صورة أو فيديو لإرهابي، فإنَّ نظامنا يبحث عما إذا كانت الصورة تطابق فيديو أو صورة إرهابية معروفة». عندما يكشف النظام عن صورة إرهابية معروفة، فإنها تُمنع من الرفع على فيسبوك. ويستخدم نظام مطابقة مشابهًا مع صور الاعتداء على الأطفال.

ويزعم الموقع أيضًا أنه يستخدم الذكاء الاصطناعي لتحليل النصوص المنشورة وتحديد ما إذا ما كانت تحوي رسائل دعم لداعش والقاعدة وأية جماعة أخرى مرتبطة بهما. ويستخدم التعلم الآلي للكشف عن منشورات مشابهة لتلك التي حدد فيسبوك بالفعل أنها تصب في مصلحة أنشطة هذه الجماعات.

وقال بيكرت وفيشرمان: «نستخدم الخوارزميات أيضًا لـ(الانتشار) لمحاولة التعرف على المواد المتصلة التي من الممكن أن تدعم الإرهاب. نستخدم إشارات مثل كون الحساب صديقًا لعدد كبير من الحسابات التي أوقفت بسبب الإرهاب، أو إذا ما كان الحساب يتشارك الصفات ذاتها لحساب موقف». وتستخدم فيسبوك أيضًا تقنيات الذكاء الاصطناعي للتعرف على الحسابات التي أنشأها أشخاص أوقفت حساباتهم من قبل.

وعلى الرغم من كشف فيسبوك عن كيفية استخدامها للذكاء الاصطناعي لمكافحة المحتوى المتصل بالإرهاب، فإنَّ الشركة لم تكشف عن عدد الحسابات التي أوقفتها، بخلاف تويتر الذي ينشر هذه الأرقام، إذ قال متحدث باسم تويتر إنَّ شركته قد حظرت 376.890 حسابًا، بين شهري يوليو (تموز) وديسمبر (كانون الأول)، لترويجها للإرهاب.

لم تفصّل شركة زوكربيرج أيضًا ما الذي تعتبره محتوًى متطرفًا. وكانت فيسبوك قد اضطرت سابقًا أن ترجع عن قرارات اتخذتها حين حظرت صورًا وفيديوهات قدرت أنها مثيرة للجدل. وتقول فيسبوك إنَّ هذا النهج يأتي مصحوبًا بالـ«خبرة البشرية» – إذ يراجع فريق المحتوى المبلغ عنه مع وكالات إنفاذ القانون في كل العالم عند وقوع حادثة ما. وتضيف أيضًا إنها تعمل مع شركات تقنية أخرى وحكومات.

اقرأ أيضًا: «فوربس»: هكذا استطاعت حيلة بسيطة أن تُخمد هجمات الفدية الخبيثة «وانا كراي»

ونقل الموقع عن الشركة قولها إنها تعمل على أنظمة سوف تسمح لها بمراقبة المحتوى عبر تطبيقات فيسبوك الأخرى (إذ تملك الشركة تطبيقي واتساب وإنستجرام). وقال الموقع إنَّ تطبيق واتساب تحديدًا قد تعرض للهجوم من قبل سياسيين بريطانيين لأنَّ التشفير الثنائي يعني أنَّ من غير الممكن لفيسبوك، أو أي شخص غير المستقبلين المعنيين، أن يعترضوا محتوى الرسائل المرسلة.

وقالت وزير الداخلية، آمبر رود، بعد الهجمة التي طالت جسر وستمنستر: «ينبغي ألا يكون هناك مكان يختبئ فيه الإرهابيون. نحن بحاجة إلى التأكد من أنَّ منظمات مثل واتساب – وهناك الكثير من المنظمات الشبيهة بها – لا توفر مكانًا سريًا يتواصل الإرهابيون مع بعضهم البعض من خلاله».

هذا المقال مترجمٌ عن المصدر الموضَّح أعلاه؛ والعهدة في المعلومات والآراء الواردة فيه على المصدر لا على «ساسة بوست».

عرض التعليقات
تحميل المزيد