ابتكرت شركة «مايكروسوفت» بالتعاون مع شركة «نيفيديا» المصنعة للشرائح الإلكترونية، ذكاءً اصطناعيًّا ضخمًا يمكنه محاكاة لغة البشر بشكل مقنع أكثر من أي وقت مضى. هذا الذكاء الاصطناعي عبارة عن شبكة عصبية أكبر ثلاث مرات من أكبر شبكة سبق أن جرى إنشاؤها من قبل.

يثير هذا الأمر تساؤلات حول الهدف من هذا التوجه، وما إذا كان بإمكان أنظمة الذكاء الاصطناعي هذه الاستمرار في التوسع إلى حدود غير مسبوقة وكان يصعب تخيلها سابقًا.

تفكير منطقي وردود مقنعة: أقوى ذكاء اصطناعي

كشفت شركتا «مايكروسوفت» و«نيفيديا» في شهر أكتوبر (تشرين الأول) 2021، عن أكبر وأقوى نموذج لجهاز حاسوب مرتبط بمحاكاة لغة البشر حتى الآن. يسمى هذا الحاسوب «Megatron-Turing Natural Language Generation» واختصاره «MT-NLG».

Embed from Getty Images

يتفوق «MT-NLG» على الأنظمة السابق إنتاجها لكلا الشركتين؛ إذ يعد الذكاء الاصطناعي الجديد أكبر بكثير وأكثر تعقيدًا من نموذج «Turing-NLG» الذي أنتجته «مايكروسوفت» ومن «Megatron-LM» الذي أنتجته «نيفيديا». وعند مقارنة النموذج الجديد بالنموذجين السابقين، فقد حقق «MT-NLG» دقة منقطعة النظير في مجموعة واسعة من المهام المتعلقة باللغة الطبيعية مثل التنبؤ بإكمال الجمل، وفهم القراءة والتفكير المنطقي، واستدلالات اللغة الطبيعية، وتوضيح معنى الكلمة.

أكبر نموذج لتوليد لغة البشر في العالم

جرى تدريب حاسوب «MLT-NLG» على نموذج بيانات ضخم يعرف باسم «The Pile». يتكون هذا النموذج من عدة مجموعات بيانات يبلغ مجموعها 825 جيجا بايت من النصوص التي جرى تجميعها من الإنترنت. تتنوع هذه المصادر من مقالات ويكيبيديا والمجلات الأكاديمية إلى مقاطع الأخبار المختلفة.

تقوم خوارزمية هذه النوعية من الذكاء الاصطناعي على توليد النصوص عبر تقييم احتمالية ظهور كلمة معينة مع الكلمات المحيطة، ثم تعلم الخوارزمية نفسها مرارًا وتكرارًا، لتصبح أكثر ذكاءً.

نظرًا إلى الكم الهائل من البيانات المستخدمة لتدريب الحاسوب الجديد، لم يتمكن الباحثون من تنظيف مجموعة البيانات الخاصة من الكلمات التي لا ينبغي استخدامها مطلقًا حتى الآن. لذلك، يلتقط حاسوب «MT-NLG» العبارات السيئة والتحيزات من تلك البيانات، وهذا يعني، للأسف، أن الذكاء الاصطناعي الجديد يمكن أن ينتج مخرجات مسيئة، من المحتمل أن تكون عنصرية أو متحيزة.

رغم هذا، تعد الجودة والنتائج التي حصل عليها العلماء من هذا الحاسوب خطوة كبيرة إلى الأمام في الرحلة نحو إطلاق الوعد الكامل لإنشاء ذكاء اصطناعي في محاكاة اللغة وتكوينها. إذ يعد النموذج الجديد مرحلة متقدمة لتطوير نماذج الذكاء الاصطناعي المستقبلية، والتي ستكون أرخص وأسرع في التدريب، ويمكن أن تكون متاحة على المستوى التجاري.

التحدث مثل البشر: لن تعرف من يتحدث إليك بعد الآن!

قلنا إن الغرض من هذه الحواسيب الخارقة هو محاكاة لغة البشر، فما الذي يعنيه هذا؟ نحن نتحدث هنا عن جهاز كمبيوتر يمكنه توليد مقالات كاملة في بضع ثوانٍ، دون أن يتمكن الإنسان من تمييز ما إذا كان هناك إنسان أو آلة وراء هذا النص المكتوب.

ليس هذا فحسب؛ إذ تتميز هذه النظم الذكية بمحاكاة استجابة البشر لغويًّا لمختلف المواقف. فإذا كنت تملك أحد هذه الأنظمة المتطورة على حاسوبك الشخصي، فإن حاسوبك يمكنه إخبارك بما يجب عليك أن تقوله للرد على شخص ما يتحدث إليك عبر الإنترنت، دون أن يشك هذا الشخص في أن جهاز الحاسوب هو الذي يرد نيابةً عنك!

تطبيقات هذه الثورة في الذكاء الاصطناعي عديدة، ويمكن أن نشهدها في المستقبل القريب. تتضمن التطبيقات الأساسية الممكنة استبدال العاملين في مراكز الاتصالات بروبوتات مخصصة للرد والتفاعل مع الناس. ويمكن أن يصل الأمر إلى إنشاء المحتوى الصحفي وصياغة الإشعارات القانونية. هذا يعني أنه لأول مرة في تاريخ البشرية، من المرجح أن تتأثر وظائف «ذوي الياقات البيضاء»، وهم أولئك الناس الذين يقومون بعمل ذهني مكتبي مثل المديرين والمتخصصين، وهم بذلك يتميزون عن أصحاب الياقات الزرقاء الذين يقومون بعمل يدوي ميداني كالعمال. وبالطبع، في الوقت الذي تندر فيه الوظائف أو تنقص، فإن العواقب لن تكون جميلة على الإطلاق.

تقنية مستخدمة بالفعل ولكن

إذا أتيحت هذه التقنية لعامة الناس، فيمكن استخدامها لكتابة الأغاني والقصص، والبيانات الصحفية، والمقابلات والمقالات، والكتيبات الفنية. الأمر يبدو غريبًا ومخيفًا. هذا هو المستقبل. لكن المستقبل يبدأ من الآن بالفعل عبر خطوات أولية في تطوير التقنية واستخدامها بشكل محدود. نماذج اللغات المعتمدة على الذكاء الاصطناعي هذه تستخدمها بالفعل شركة «جوجل» لتحسين نتائج البحث والترجمة.

Embed from Getty Images

إذا كنت تستخدم «Gmail» أو محرر مستندات «Google»، فمن المحتمل أنك واجهت هذه التقنية بالفعل. في منتجات «Google»، يكمن محررو الذكاء الاصطناعي في تلك المساحات الفارغة التالية لكلمة ما قد كتبتها، فيقترحون كلمات معينة عليك، بل يصل الأمر لاقتراح كيفية إنهاء جملة أو الرد على رسالة بريد إلكتروني.

غالبًا ما تكون مساهمتهم هذه مجرد عبارات بسيطة مثل «شكرًا»، «فكرة رائعة»، «لنتحدث الأسبوع المقبل». لكن في بعض الأحيان يبدو أن هؤلاء المحررين سيتخذون مسارًا تحريريًّا أقوى، ويدفعون ردك في اتجاه معين. تهدف هذه الاقتراحات إلى أن تكون مفيدة بالطبع، لكن يبدو أنها تثير الانزعاج في كثير من الأحيان للبعض. في النهاية، هي ما زالت تتعلم وتتطور.

عام 2020، أنشأت شركة «OpenAI» نموذجًا قويًّا لهذه النوعية من الذكاء الاصطناعي يسمى «GPT-3»، بعدما دخلت عام 2019 في شراكة مع شركة «مايكروسوفت» التي استثمرت مليار دولار أمريكي في «OpenAI». وقد وفرت «OpenAI» الوصول إلى هذه التقنية بوصفها خدمة تجارية، ترتبط بتلخيص المستندات القانونية، أو اقتراح إجابات على استفسارات خدمة العملاء، أو تحديد الأفراد المعرضين للخطر، عبر تصنيف مشاركات بعض الناس على أنها صرخات طلبًا للمساعدة.

المشكلة الرئيسية في تطوير هذه التقنية تتعلق بغرس الحس السليم أو التفكير السببي، أو الحكم الأخلاقي في هذه النماذج، هذا لا يزال يمثل تحديًا بحثيًّا كبيرًا. فحتى الآن، نحن نملك فمًا بلا دماغ.

الجانب السيئ من التكنولوجيا: محادثات مزيفة وخطابات كراهية

تمامًا مثل روبوتات الدردشة الأصغر حجمًا التي تجدها في بعض التطبيقات، يمكن أن ترتكب تقنيات محاكاة لغة البشر بعض المشكلات التي تحتاج لحل لها، مثل أنها تنشر خطاب الكراهية وتولد قوالب نمطية عنصرية وجنسية؛ إذا طُلب منها ذلك. حتى الآن هذه أخطاء يعمل العلماء على تطويرها، لكن ماذا لو استخدمت هذه الأمور بشكل مقصود؟ هذه مشكلة حقيقية.

Embed from Getty Images

مثل هذه التقنيات تطرح بعض التحديات الحقيقية للغاية. نظرًا إلى أننا ملتصقون بشكل متزايد بشاشات هواتفنا ونستهلك كميات هائلة من المعلومات، يمكن لهذا النوع من الذكاء الاصطناعي إنشاء محتوى مماثل للمحتوى البشري بوتيرة تنذر بالخطر. فالمحتوى المنتج سيزيد من طمس الخطوط الفاصلة بين الحقائق والحقائق البديلة أو المزيفة.

يمكن لهذه التقنيات أن تخلق مساحة للتحيز وإنتاج المحتوى غير الصحيح. لأن نموذج الذكاء الاصطناعي هذا يستمد غالبية محتواه من الإنترنت، من ثم، إذا كانت كلمة معينة مرتبطة بمشاعر معينة، فإنه سيبث الكلمات نفسها دون الانتباه لطبيعة المشاعر التي ينقلها. بمعنى آخر، قم بتغذية الإنترنت بما يكفي من الحقائق الخاطئة وسيأخذها نموذج الذكاء الاصطناعي على أنها صحيحة.

نحن نتحدث عن تقنية تثير المخاوف أكثر مما أثارته فضائح «Cambridge Analytica» وتقنيات التزييف العميق (تقنيات تزييف فيديوهات على أنها حقيقية). هذه التكنولوجيا تحمل مخاوف أكبر بعشر مرات على الأقل مما شهدناه حتى الآن، وذلك ببساطة بسبب مدى قدرتها على توليد المحادثات المغرضة التي تبدو حقيقية تمامًا كأن بشرًا هم من يتحدثون بها.

تكنولوجيا

منذ 4 شهور
هل يتفوق «جوجل» و«فيسبوك» قريبًا على المترجمين المحترفين؟

المصادر

عرض التعليقات
تحميل المزيد