«لا.. لم يصب فيسبوك بالذعر فأغلق مشروع الذكاء الاصطناعي الذي كان يتفاقم ذكاؤه»

محادثة بسيطة مكتوبة بين روبوتين، تسببت في موجة ذعر من هيمنة الذكاء الاصطناعي بل والذعر من فناء البشر على يد الروبوتات، مشهد يبدو للوهلة الأولى مقدمة لواقع مستقبلًا يشبه فيلم ترمينيتور. لكن لننح المبالغة جانبًا، ما هي حقيقة تطوير شات بوت للغة جديدة خاصة بهم، وهل يستدعي الأمر كل تلك الضجة والذعر؟

نشر موقع «غيزمودو» لأخبار التكنولوجيا تقريرًا يتناول القصة كيف بدأت وأين تلك التخوفات من الواقع.

استهل «توم ماكاي» تقريره بعرض سريع لموجة الذعر التي اجتاحت عناوين الأخبار، ففي الأسابيع الأخيرة تداولت أخبار عن أحد أبحاث فيسبوك لتجربة التعلم الآلي مصحوبة بعناوين بعضها اتسم بالذعر والأخرى كانت أشبه بالتحذير من ذكاء اصطناعي شبيه بأفلام تيرمنيتور.

صورة متحركة (GIF) المصدر: فريق الذكاء الاصطناعي بفيسبوك

على سبيل المثال، كتب أحد المواقع إن «المهندسين في فيسبوك مذعورون، أطفؤوا شات بوت – روبوت دردشة ومشروع ذكاء اصطناعي- بعد أن طوَّر لغته الخاصة»، وأضاف غيره «فيسبوك يغلق مشروع ذكاء اصطناعي بعد اختراعه لغته الخاصة الغريبة»، وتساءل آخر «هل تسببنا نحن البشر في خلق فرانكنشتاين جديد؟»، وقد اقتبست إحدى الصحف البريطانية عن أحد الأساتذة الجامعيين قوله إن تلك الحادثة أوضحت أن «الخطر في التحول إلى الذكاء الاصطناعي يمكن أن يغدو قاتلاً إذا دُمجت مثل تلك التقنية في الروبوتات العسكرية الحربية».

يقول «توم» إن الأخبار عجت بإشارات لثورة روبوتات قادمة، والروبوتات القاتلة وأنظمة تحديد الهوية الآلية الخبيثة، حتى إبادة البشرية، يتضح أن الإشارات تفاوتت في درجة خطورتها. وكان يقتبس المقطع التالي باستمرار، باعتباره مخيفًا للغاية على نحو لا جدال فيه، أن «اثنين من روبوتات الدردشة في مشروع للفيسبوك تعلموا كيف يتحدثون مع بعضهم البعض»:

بوب: أستطيع أستطيع أنا أنا أي شيء آخر
أليس: الكرات لديها صفر لي لي لي لي لي لي
بوب: أنت أنا كل شيء آخر
أليس: الكرات لديها كرة لي لي لي لي لي لي

إلا أنه يقول إن حقيقة الأمر ربما ليست بتلك الحماسة، بل قد تكون مملةً. منذ أسابيع قليلة أعد موقع فاستكو ديزاين تقريرًا عن محاولات فيسبوك لتطوير الشبكات العصبية بهدف تطوير برمجيات التفاوض.

اقرأ أيضًا: مترجم: كيف يستخدم «فيسبوك» الذكاء الاصطناعي لمكافحة الإرهاب على الإنترنت؟

نجاح أم نذير؟

تم تصميم الروبوتين المذكورين في المقطع أعلاه، بهدف إظهار أنه «من الممكن لوكلاء الحوار ذوي الأهداف المتباينة – التي تم تنفيذها باعتبارها شبكات محايدة مدربة من البداية حتى النهاية – للانخراط في مفاوضات من البداية حتى النهاية مع روبوتات أخرى أو بشر، بينما تصل لقرارات أو نتائج مشتركة» وذلك كما هو موضح في مدونة أبحاث الذكاء الاصطناعي في فيسبوك في يونيو (حزيران).

لم يكن الروبوتان يخططان لشيء مشين عدا مناقشة كيفية تقسيم مجموعة من العناصر المعطاة –الممتلكات الافتراضية -، ممثلة في واجهة المستخدم باعتبارها أشياء غير ضارة مثل الكتب والقبعات والكرات، إلى تقسيم مقبول بين الطرفين.

وكان القصد من ذلك تطوير شات بوت – روبوت دردشة – يمكنه التعلم من التفاعل البشري ليتمكن من إبرام صفقات تفاوض مع مستخدم آخر بطلاقة بحيث لا يلاحظ المستخدم البشري على الطرف الآخر أنه يتحدث مع روبوت، وهو ما وصفته مدونة أبحاث فيسبوك للذكاء الاصطناعي «فير» بأنه خطوة ناجحة:

تطابق أفضل أداء للروبوت في برنامج أبحاث الذكاء الاصطناعي في فيسبوك باعتباره وكيل حوار، والذي يستفيد من تعزيز التعلم و مهارات المحادثة، مع أداء المفاوضين من البشر… ما يدل على أن الروبوت لا يمكنه تحدث الإنجليزية فحسب، بل أيضًا التفكير بذكاء فيما يقول.

عندما وجهت فيسبوك اثنين من الروبوتات شبه الذكية للتحدث مع بعضهم البعض، بلغت شركة فاست كو أن المبرمجين أدركوا أنهم ارتكبوا خطأ من خلال عدم تحفيز روبوت الدردشة للتواصل وفقًا لقواعد اللغة الإنجليزية المفهومة للبشر. أما في محاولتهم التعلم من بعضهم البعض، بدأت الروبوتات الدردشة، لكن بتبادل الحديث بطريقة الاختزال الاشتقاقي. وعلى قدر ما يبدو الأمر بأنه مريب، إلا أنه لا يتعدَّى ذلك.

يقول «دروف باترا» باحث زائر لأبحاث الذكاء الاصطناعي في فيسبوك «سينجرف وكلاء الحوار من لغة غير مفهومة ويخترعون كلمات مشفرة لأنفسهم، كما لو كنت أقول كلمة «ال» خمس مرات متتالية، فإنك تفسر ذلك بأنني أريد خمس نسخ من هذا العنصر. وهذا لا يختلف كثيرًا عن الطريقة التي تخلق بها المجتمعات البشرية الاختزالات».

يقول الكاتب إن فيسبوك بالفعل أغلق المحادثة بين الروبوتين، لكن ليس لأنهم ذعروا، لكن لأنهم صار لديهم سكاينت محتمل طليق شبيه بذلك في فيلم تيرميناتور. صرح «مايك لويس» – الباحث في أبحاث الذكاء الاصطناعي في فيسبوك – لفاستكو أنهم ببساطة قرروا أن: «كانت مصلحتنا في أن يكون لدينا روبوتات يمكنها التحدث مع البشر»، وليس التحدث مع بعضهم البعض بكفاءة، لذلك قرروا اشتراط الكتابة لبعضهم البعض بشكل مقروء.

  يضيف الكاتب أن تلك القصة تطورت من كونها نظرة مدروسة للآثار المحتملة قصيرة المدى لتكنولوجيا التعليم الآلي، إلى نظرة باطنها الشؤم.

ربما تكون هناك أسباب وجيهة ألَّا نسمح للآلات الذكية تطوير لغتها الخاصة والتي لن يتمكن البشر من فهمها تمامًا، لكن مرة أخرى، تعد تلك ظاهرة طبيعية مملة نسبيًا تنشأ عندما تبدأ في تشغيل جهازين للتعلم الآلي وتدعهما يتعلمان من بعضهما البعض، وجدير بالذكر أنه عندما تم تفسير اختزال الروبوت، كانت المحادثة مفهومة وليست مريبة كما بدت من قبل.

وكما نوه تقرير فاستكو، من الممكن أن يسمح هذا النوع من التعلم الآلي للأجهزة أو الأنظمة الذكية بالتواصل مع بعضها البعض بطريقة أكثر كفاءة، لكن تأتي تلك المكاسب مصحوبة ببعض المشكلات، تخيل مدى صعوبة تصحيح خطأ -باج- في مثل تلك الأنظمة، لكن الأمر يختلف عن إطلاق العنان لماكينة ذكية ذات تحكم بشري.

في تلك الحالة، الشيء الوحيد الذي كانت الروبوتات قادرة عليه هو الوصول إلى طريقة أكثر كفاءة في تبادل الكرات مع بعضهم البعض.

هناك استخدامات جيدة لتكنولوجيا التعليم الآلي، مثل تحسين التشخيص الطبي، مع احتمالية حدوث تشخيصات سيئة، ومثل برمجيات الشرطة للتنبؤ بأحداث الشغب يمكن استخدامها لتبرير كسر الاحتجاجات أو فضها. تعد جميعها أساسًا طرقًا لجمع وتحليل كميات كبيرة من البيانات، وحتى الآن ترتبط المخاطر بشكل رئيسي بكيفية اختيار البشر توزيع واستخدام تلك القوة.

اقرأ أيضًا: ذا دايلي بيست: هل يمكن أن تتطور الروبوتات لتدخل معارك سياسية؟

ويختتم تقريره بأن الأمل في أن يكون البشر أذكياء بما فيه الكفاية ألا يقفزوا بالبرامج التجريبية لتكنولوجيا التعلم الآلي إلى شيء خطير للغاية، مثل جيش من الروبوتات بنظام أندرويد مدججين بأسلحة الليزر أو المفاعلات النووية. لكن إذا ما حدث وتمكن شخص من فعل ذلك، وترتب على ذلك دمار وكوارث، ستكون تلك نتيجة للإهمال والغباء البشري، وليس لأن الروبوتات طورت إداراكًا فلسفيًا حول مدى سوء البشر.

على الأقل لم نصل لذلك الحد بعد، التعلم الآلي ليس بمقربة من ذكاء اصطناعي حقيقي، كل ما في الأمر هو تحسس بشري أولي من التكنولوجيا، ولو توجب على أحد الذعر من ذلك في عام 2017 ، فإن المفاوضين المهنيين هم الأولى بذلك إذ يمكن أن يخسروا وظائفهم قريبًا.

هذا المقال مترجمٌ عن المصدر الموضَّح أعلاه؛ والعهدة في المعلومات والآراء الواردة فيه على المصدر لا على «ساسة بوست».

عرض التعليقات
تحميل المزيد