تناول تقرير  للكاتبة ستيفاني باباس على موقع «لايف ساينس» ما قال إنها مشكلة كارثية ظهرت في الذكاء الاصطناعي. فعندما أطلقت مايكروسوفت روبوت الدردشة Tay على موقع تويتر، أصبح الروبوت يصدر كلمات عنصرية ومتطرفة خلال 24 ساعة. ومعظم ما تعلمه كان عن طريق التحدث مع المستخدمين على الموقع.

لكن تفاعل الروبوت مع المستخدمين ليس الطريقة الوحيدة التي يتعلم بها اللغة العنصرية. في الواقع، إنّ أي نظام ذكاء اصطناعي يتعلم لغة البشر سيصبح متحيزًا مثل البشر بالضبط، وذلك وفقًا لما ذكره العلماء.

يشير التقرير إلى أن الباحثين اختبروا أنظمة تعلم آلي متعددة، ووجدوا أنّ كافة صفات التحيز البشري متوفرة لدى أنظمة الذكاء الاصطناعي.

وقد علقت الباحثة أيلين كالسكان على ذلك بالقول: «إنّ النتائج التي احتوت عليها تلك النماذج كانت مذهلة». وأضافت أنّه حتى أجهزة الذكاء الاصطناعي التي جرى تدريبها على نصوص عادية من ويكيبيديا أظهرت التحيز مثل البشر.

اقرأ أيضًا: الروبوتات والذكاء الاصطناعي سوف يدمرون البشرية؟ 5 أسباب لن تدعك تقلق حيال ذلك

تحيز مدمج

هناك أداة تدعى GloVe تستخدم لاستخراج المعاني من النصوص، إذ يجري سحب جزء أساسي من اللغة من الإنترنت.

يقول التقرير إن علماء النفس عرفوا منذ مدة طويلة أن العقل البشري يربط بين الكلمات بناءً على معانيها الخفية. وهناك أداة تسمى «اختبار الارتباط الضمني» Implicit Association Test تستخدم رد الفعل لإظهار هذه الارتباطات. فعندما يرى الناس كلمة «النرجس البري» إلى جانب مفهوم بهيج أو محزن، فإنهم يربطون سريعًا بين المعنيين. فمثلًا، يجري الربط تلقائيًّا بين الورود والسعادة، في حين يجري الربط بين الأسلحة والحزن.

ويُستخدم اختبار الارتباط الضمني لكشف الارتباطات الخفية التي يقوم بها الناس بشأن المجموعات الاجتماعية، والعرقية. على سبيل المثال – يضيف التقرير– بعض اختبارات الارتباط الضمني المتاحة على موقع Project Implicit كشفت أن الناس يربطون تلقائيًّا بين الأسلحة والأمريكيين السود، بينما يربطون بين الأدوات السلمية والأمريكيين البيض.

اشتعل الجدال حول تلك النتائج، وتساءل الباحثون عما إذا كان الناس يقومون بهذه الارتباطات بسبب تحيزهم اجتماعيًّا، أم بسبب اللغة التي تشتمل على كلمات بذيئة ترتبط بالأقليات العرقية والعجائز وغيرهم؟

اقرأ أيضًا: قريبًا سيكون للذكاء الاصطناعي مشاعر وآمال وحقوق.. فهل نحن مستعدون؟

الأنماط الرقمية

طورت كالسكان وزملاؤها اختبار ارتباط تضمين الكلمات – يقول التقرير–، وذلك لقياس مدى قوة الرابطة بين الكلمات التي يمثلها نظام GloVe، مثلما يقيس اختبار الارتباط الضمني قوة ارتباط الكلمة بالعقل البشري.

أتت نتائج الاختبارين متطابقة، فقد ربط الذكاء الاصطناعي بين الورود والكلمات البهيجة، وبين الحشرات والكلمات السيئة… إلخ. ما سبب لغطًا أكبر هو أن الذكاء الاصطناعي اعتبر الأسماء الأمريكية- الأوروبية أفضل من الأسماء الأمريكية- الإفريقية. كما ربط النظام بين أسماء الذكور والعمل، وأسماء الإناث والعائلة. وربط بين الرجال والرياضيات والعلوم، والنساء والفنون. وكان يجري ربط أسماء كبار السن بألفاظ حزينة أكثر من الشباب.

قالت كالسكان: «لقد تفاجأنا من قدرتنا على استبدال كل نتيجة من نظام الذكاء الاصطناعي بنتيجة من نظام اختبار الدماغ البشري».

وقد امتد الأمر إلى أن الباحثين اكتشفوا أن أداة التعلم الآلي كانت تمثل حقائق العالم بشكل دقيق. وعند مقارنة نتائج نظام GloVe مع إحصاءات مكتب العمالة الأمريكي سنجد أن نسبة ارتباط أسماء الإناث بالوظيفة التي يشغلنها تبلغ 90%.

بعبارة أخرى – يقول التقرير– فإن أنظمة الذكاء الاصطناعي التي تتعلم لغة البشر تتأثر بطباعهم بشدة، حتى لو كانت تلك الطباع سيئة. لكن أنظمة الذكاء الاصطناعي تعجز عن إدراك السياق مثل البشر. فمثلًا، لو كان هناك مقال عن دفاع مارتن لوثر كينج عن الحقوق المدنية للسود، سنجد أن أنظمة الذكاء الاصطناعي تربط بينه وبين كلمات سيئة عن الأمريكيين- الأفارقة.

تقول كالسكان إن ضمان دقة الذكاء الاصطناعي في تمييز مفاهيم العدالة يعتبر تحديًا صعبًا. «لا نعتقد أن إلغاء التحيز سيصلح المشكلة؛ لأن ذلك قد يهدم التمثيل الدقيق للعالم».

اقرأ أيضًا: هل ستحصل الروبوتات على وظائفنا في المستقبل؟

بناء ذكاء اصطناعي غير متحيز

تقول سوريل فريدلر – باحثة في علوم الكمبيوتر بكلية هافرفورد– إن النتائج غير مفاجئة لكنها مهمة. «إن هذا يستخدم طريقة قياسية بُنيت عليها الكثير من الأنظمة». بمعنى آخر، فإن أنظمة الذكاء الاصطناعي التي تتعلم لغة البشر من الصعب أن تخلو من التحيز.

يقول التقرير إن فريدلر منخرطة في بحث يحمل اسم «العدالة والمساءلة والشفافية في تعلم الآلات». وتؤكد فريدلر أن حل هذه المشكلات صعب، لكنها ذكرت أن بوسع المبرمجين إخبار أنظمة الذكاء الاصطناعي باستبعاد كلمات محددة. وقد يضطر البشر إلى التدخل لضمان عدم عمل الآلة بشكل سيئ. وتؤكد كالسكان أن الحلول ستتباين بناءً على الغرض الذي صُمم له الذكاء الاصطناعي.

ليس هناك ارتباط وثيق بين السلوكيات الضمنية والصريحة لدى البشر بشأن المجموعات العرقية. ويقول علماء النفس إن السبب هو أن الناس يتجنبون الحديث عن تحيزاتهم؛ تجنبًا للحرج. ولكن يبدو أن الناس لديهم القدرة على التفريق بين الصواب والخطأ عن طريق ارتباطاتهم المتحيزة. وتعتقد كالسكان وزملاؤها أنه لا بد من إشراك البشر في التحكم في عمل الآلات حتى يتمكن الناس من إطلاق أحكام ذات قيمة عن عدالة الآلات.

هذا المقال مترجمٌ عن المصدر الموضَّح أعلاه؛ والعهدة في المعلومات والآراء الواردة فيه على المصدر لا على «ساسة بوست».

عرض التعليقات
تحميل المزيد