يبدو أن الإستراتيجية التي تتبعها منصة «فيسبوك» لمراقبة المحتوى فشلت في كبح أعمال العنف في بنجلاديش، وتناول هذا الموضوع بالتحليل كلٌ من مُبشار حسن، زميل مساعد في مبادرة البحوث الإنسانية والإنمائية بجامعة «غرب سيدني»، وجيوفري ماكدونالد، مدير برنامج بنجلاديش في المعهد الجمهوري الدولي، وواي واي هوي، مديرة برنامج التكنولوجيا والديمقراطية في المعهد الجمهوري الدولي، محاولين توضيح كيفية إصلاح هذه السياسات، وذلك في تقرير نشرته مجلة «فورين بوليسي» الأمريكية.
في مستهل التقرير، يُشير الكُتَّاب إلى إحدى أسوأ موجات العنف التي عصفت ببنجلاديش في أكتوبر (تشرين الأول) الماضي والتي لم تشهدها البلاد منذ سنوات، عندما هوجمت مئات المنازل والمعابد الهندوسية، ما أسفر عن مقتل ستة أشخاص على الأقل وإصابة عشرات آخرين، على خلفية منشوريَن محرِّضيَن انتشرا سريعًا على منصة التواصل الاجتماعي الشهيرة «فيسبوك»، إذ بثَّ المنشور الأول فيديو يُظهِر تدنيس المصحف الشريف في معبد هندوسي، أما المنشور الثاني فقد ظهر فيه رجلٌ هندوسيٌّ ينتقد الدين الإسلامي.
كيف فشلت سياسات «فيسبوك» في تحجيم خطاب الكراهية؟
يوضح الكتَّاب أن «فيسبوك» كان يُدرك تمامًا، منذ تأسيسه في عام 2004، حجم المخاطر المحتملة للمنصة، ولطالما احتفظت شروط الخدمة الخاصة بـ«فيسبوك» بالحق في حذف الخطابات المحرِّضة الخطيرة، ومع تزايد انتشار المحتوى الضار على المنصة، كانت «فيسبوك» تُحدِّث سياساتها بصفة دورية لتحديد مبادئها التوجيهية على نحوٍ أفضل، وعلى مدار سنوات، كانت الشركة المالكة لـ«فيسبوك» والمعروفة حاليًا باسم «ميتا» تضخ مليارات الدولارات لتحسين تدابير «السلامة والأمن» عبر جميع منتجاتها، والتي تشمل تطبيق «واتساب» ومنصة «إنستجرام».
بيد أن هذه الجهود فشلت في كبح جماح خطاب الكراهية التحريضي الذي يُغذِّي العنف، وقبل بضعة أسابيع من اندلاع هجمات بنجلاديش، أدلت فرانسيس هوجن، الموظفة السابقة في شركة «فيسبوك»، بشهادتها أمام الكونجرس الأمريكي بشأن الآثار الضارة للشركة فيما يتعلق بنشر خطابات الكراهية وتغذية الانقسامات الاجتماعية، وأكدَّت فرانسيس أن «فيسبوك»: «يُؤجج العنف العِرقي»، وأن استجابة الشركة، من خلال مراجعة سياساتها المتعلقة بالتنمر والمضايقات، لم تُقدم شيئًا يُذكر لحل الأزمة.
ويؤكد التقرير أن النهج المخصص والتدريجي الذي تتبعه شركة «فيسبوك» لمراقبة المحتوى المنشور على منصتها فشل في كبح جماح العنف في بنجلاديش وفي مختلف أنحاء العالم، مخلِّفًا عواقب كارثية وخيمة، وفي بنجلاديش، تُعد ادِّعاءات ازدراء الأديان والاستخفاف بها، التي يُطلقها أفراد من عامة الشعب في أحيان كثيرة، فعَّالة جدًّا في استنفار الأغلبية المسلمة في البلاد، وقبل وقت طويل من تأسيس «فيسبوك»، كانت حملات الكراهية تلك تنتشر من خلال حركات الشوارع والكلام شفاهةً، ونتج عنها تداعيات شديدة الخطورة وعنيفة في الغالب.
كيف يتصدى «فيسبوك» لخطاب الكراهية؟
يُنوِّه التقرير إلى أن «فيسبوك» يعتمد على إستراتيجية متعددة الأوجه، لمكافحة خطاب الكراهية، وتتضمن خوارزميات الإبلاغ عن المستخدمين ومراقبي المحتوى الداخلي، وقد صُمِّمت خوارزميات الشركة لتحديد المحتوى الضار وحذفه، بينما يراجع نظامها الآلي المنشورات التي يُبلغ عنها المستخدمون، وعندما يفشل النظام في الوصول إلى نتائج، يُرسل المنشور إلى المشرفين البشريين على المحتوى، والذي يُواجه عديدٌ منهم عقبات لغوية بالأساس، فضلًا عن أنهم يفتقرون إلى القدرة على مراجعة حجم هائل من المحتوى.
ونظرًا لانتشار المحتوى الضار على منصتها، قطعت شركة «فيسبوك» خطواتٍ واسعة في تكوين الخبرات وتعزيزها بشأن ديناميكيات الصراعات والعمل على تقليل حدتها وفقًا لذلك، وفي بنجلاديش، حذفت «فيسبوك» بعض الحسابات المرتبطة بالقرصنة والبريد العشوائي والمعلومات المضللة المتعلقة بالانتخابات، وعيَّنت المنصة، في الآونة الأخيرة، أول مدير للسياسة العامة في البلاد ووسَّعت من طاقم الموظفين الناطقين باللغة البنجالية.
لكن ثبُت أن إستراتيجية تبني الاعتدال تلك غير كافية؛ إذ كشفت تسريبات خاصة بـ«فيسبوك» في العام الماضي أن خوارزمية «فيسبوك» لا تلتقط سوى أقل من 5% من خطابات الكراهية المنتشرة على منصتها على الإنترنت، وظل الفيديو، الذي أشعل فتيل أعمال العنف الأخيرة في بنجلاديش، على الإنترنت لمدة ستة أيام وجرت مشاركته أكثر من 56 ألف مرة قبل أن يحذفه «فيسبوك»، وعلى الرغم من الجهود التي تبذلها، كانت سياسة «فيسبوك» جزئية باستمرار ولا تحظى بالتمويل الكافي، مع قيام المشرفين بأعمالهم في ظل ظروف صعبة مقابل أجور زهيدة.
طريقة إصلاح هذه السياسات
يلفت التقرير إلى أن إحدى المشكلات الرئيسة تتمثل في أن «فيسبوك» ركَّز إلى حدٍ كبيرٍ جهودَه على نشر محتوى معتدل في الدول الغربية الناطقة باللغة الإنجليزية، بينما تجاهل المناطق الأخرى، حيث يُمكن أن يكون خطاب الكراهية أخطر، ومن أجل الحد من العنف في هذه الدول على نحو أفضل، يجب أن تضمن المنصة تخصيص قدرٍ كافٍ من الموارد، بما فيها رفع معنويات الموظفين وإضافة مصادر محلية وتوسيع نطاق التدريب على تمييز خطابات الكراهية ليشمل مزيدًا من اللغات، وتحسين معرفة معدِّي المنتجات بالسياق الخاص بكل دولة وثقافتها واتجاهاتها، ويُمكن للحكومات الضغط على «فيسبوك» لإدخال هذه التغييرات من خلال استخدام الأدوات التنظيمية الأساسية، مثل قانون الخدمات الرقمية للاتحاد الأوروبي، التي ترفع مستوى الشفافية والمساءلة.
ويُمكن أن يؤدي توسيع نطاق الشراكات مع خبراء خارجيين، مثل مجموعات المجتمع المدني الموثوق بها والأكاديميين، إلى تمكين «فيسبوك» من تمييز المحتوى المشكوك فيه بفاعلية وتحديد مؤشرات الإنذار المبكر للصراع، ومن خلال استيعاب السياق المحلي والتقاليد والمظالم التاريخية، يُمكن لمنصة «فيسبوك» تقييم أنواع المحتوى، التي من المحتمل أن تؤجج العنف، تقييمًا أفضل، وبالتوازي مع هذه الجهود المبذولة بصورة سليمة، ينبغي لـ«فيسبوك» التفكير في إعداد مبادئ توجيهية إقليمية أو خاصة بكل دولة حول خطابات الكراهية عالية الخطورة، وفي بنجلاديش، كان من الممكن أن تساعد مثل هذه السياسات المشرفين على إدراك أن المحتوى الاستفزازي عن الإسلام قد يُحرِّض على العنف أكثر من غيرها من المنشورات.
ويُشدِّد التقرير على أنه يجب على «فيسبوك» أيضًا، لمناهضة المحتوى الضار، الالتزام بنشر البيانات التفصيلية حول خطاب الكراهية، الذي ينتشر في بعض المناطق بصورة مختلفة، ولا يُوجد حاليًا سوى قدرٍ قليل من البيانات العامة حول انتشار خطاب الكراهية، وفي العام الماضي، سرَّحت الإدارة التنفيذية للشركة فريقًا داخليًّا أنشأ برنامج «كراود تانجل» وأداره، وهي أداة عامة مملوكة لشركة «فيسبوك» لتحليل البيانات، بعد أن استخدم الباحثون والصحافيون بياناتها لإبراز صورة سلبية للمنصة، ومن خلال إطلاق مزيد من البيانات الشخصية المسجلة، والسماح للباحثين بإجراء تحليلاتهم الخاصة، سيساعد «فيسبوك» واضعي السياسات على ابتكار حلول معزَّزة ومحددة الهدف.
ومنذ عام 2018، راقب فريق «البلدان المعرَّضة للخطر» التابع لـ«فيسبوك» المحتوى الضار وحذفه في الدول الأشد عرضة لاندلاع العنف، لا سيما خلال الحملات الانتخابية. ومع ذلك، أدَّى التمويل غير الكافي إلى تقييد عدد الأماكن التي يمكن للفريق التركيز عليها، ومن المتوقع أن تساعد زيادة الموارد على توسيع «فيسبوك» نطاق اهتمامه إلى دول مثل بنجلاديش، التي تعاني من توترات دينية شديدة، بالإضافة إلى أن البلاد معرَّضة بصورة خاصة لاندلاع العنف الطائفي.
تغيير الخوارزميات
يُشير التقرير إلى أن «فيسبوك» يُمكنه، في المناطق التي تشهد صراعات حاليًا، وتعد أكثر عرضة لمخاطر خطاب الكراهية، تنفيذ سياسة مؤقتة بعدم التسامح مطلقًا يؤدي إلى تعديل المحتوى الاستفزازي الذي تتزايد فرص انتشاره خلال فترات التوتر الحاد؛ بينما ينبغي أن تُحدِّد الخوارزميات، التي ستُصمَّم لتحديد الكلمات الخاصة بكل دولة المعروف أنها تزيد من حدة التوترات، المحتوى الذي ربما يكون من مفردات الخطاب المحرِّض على الكراهية، ومن أجل منع هذه المنشورات من الانتشار السريع أثناء مراجعة المشرفين البشريين، يجب على «فيسبوك» تعطيل المشاهدات مؤقتًا وجميع أشكال التفاعلات مثل الإعجاب والتعليقات والمشاركات أو تقييدها قبل اتخاذ قرار داخلي.
ويختم الكُتَّاب تقريرهم بالقول إنه مع استمرار تصدي «فيسبوك» لخطاب الكراهية والمعلومات الزائفة والمحتوى الضار، سيواصل العنف الديني العصف ببنجلاديش، ومع انضمام أكثر من 47 مليون بنجلاديشي إلى المنصة الآن، فإن مخاطر التقاعس عن العمل أفدح من أن تجاهلها ويجب على «فيسبوك» وغيرها من منصات التواصل الاجتماعي، التي تتطلع إلى التوسُّع على الصعيد العالمي، أن يتصدر كبح جماح خطاب الكراهية سُلَّم أولوياته القصوى، وقد حان الوقت لكي تتبنى «فيسبوك» أسلوبًا هادفًا ومدعومًا بموارد وفيرة لتخفيف حدة الخطاب الذي يحض على الكراهية، وهو النهج الذي يُركِّز على التحرر والسلامة.
هذا المقال مترجمٌ عن المصدر الموضَّح أعلاه؛ والعهدة في المعلومات والآراء الواردة فيه على المصدر لا على «ساسة بوست».