نشر موقع ذا كونفرزيشن الأسترالي مقالًا لتوبي والش، أستاذ الذكاء الاصطناعي ورئيس مجموعة البحث في جامعة نيو ساوث ويلز الواقعة في مدينة سيدني الأسترالية، تحدث فيه عن الأسلحة الفتاكة المستقلة التي تحدد الأهداف وتشتبك معها دون جهد بشري، موضحًا المخاطر المنطوية على مثل هذا النوع من الأسلحة، والمستقبل المروِّع الذي ينتظر البشرية في حال انتشارها.

استهل الكاتب مقاله بالقول: استخدمت القوات الحكومية الليبية العام الماضي في مطاردة المتمردين «أنظمة الأسلحة الفتاكة المستقلة، التي كانت مبرمجة لمهاجمة الأهداف دون الحاجة إلى ربط البيانات بين المُشغِّل ومخزن الذخيرة»، وفقًا لتقرير للأمم المتحدة نُشر في مارس (آذار) الماضي. وكانت هذه الطائرات المسيَّرة القاتلة من طراز كوادكوبتر التركية الصنع بحجم طبق الطعام، وقادرة على إيصال رأس حربي يزن كيلو جرامًا واحدًا أو نحوه إلى الهدف.

علوم

منذ 3 سنوات
منها قذائف الليزر والدرونز.. 5 أسلحة قدمتها أفلام الخيال العلمي ثم صارت واقعًا

ويضيف الكاتب أنه منذ سنوات يحذِّر باحثو الذكاء الاصطناعي، من زملائه وأقرانه، من ظهور الأسلحة الفتاكة المستقلة التي يمكنها اتخاذ قرارات مصيرية دون تدخل بشري. واستعرضت الحلقة الأخيرة من البرنامج الوثائقي الأسترالي «فور كورنرز» هذا الأمر والمخاطر الأخرى التي تطرحها تطورات الذكاء الاصطناعي. وتجتمع في مكاتب الأمم المتحدة في جنيف هذا الأسبوع حوالي 50 دولة في محاولة أخرى للتوصُّل إلى معاهدة لمنع انتشار هذه المعدات القاتلة. ويُظهر التاريخ أن هذه المعاهدات ضرورية وأنها يمكن أن تنجح في كبح جماح المخاطر التي تهدد البشرية.

درس الأسلحة النووية

يلفت الكاتب إلى أن العلماء بارعون في التحذير من الأخطار التي تهدد الكوكب. ولسوء الحظ نجد أن المجتمع أقل براعة في إبداء الاهتمام. وفي أغسطس (آب) عام 1945، ألقت الولايات المتحدة قنابل ذرية على مدينتي هيروشيما وناجازاكي اليابانيتين؛ ما أسفر عن مقتل أكثر من 200 ألف شخص مدني. واستسلمت اليابان بعدها بأيام وانتهت الحرب العالمية الثانية، وبدأت الحرب الباردة.

ولا يزال العالم اليوم يعيش تحت تهديد التدمير النووي؛ إذ كنَّا على بعد دقائق من حرب نووية شاملة في 12 مناسبة أو نحوها. وقبل إجراء الاختبارات الأولى على القنبلة الذرية بوقت طويل، كان العلماء العاملون في مشروع مانهاتن قلقين بشأن مستقبلٍ كهذا.

Embed from Getty Images

وأُرسلت عريضة سرية للرئيس هاري ترومان في يوليو (تموز) 1945. وكانت قد تنبأت بدقة بهذا المستقبل، وفيما يلي نصها:

«إن تطوير الطاقة الذرية سيمكِّن الدول من امتلاك وسائل تدمير جديدة. وإن القنابل الذرية التي تحت تصرفنا ليست سوى خطوة أولى في هذا الاتجاه، وعلى الأرجح لا يوجد حد للقوة التدميرية التي ستصبح متوفرة بين أيدينا على مدار تطوُّر هذه الأسلحة في المستقبل. ولذلك فإن الأمة التي تسبق إلى استخدم هذه القوى الحديثة ستتحمل مسؤولية فتح الباب لعصرٍ من التدمير على نطاق لا يمكن تصوره. وإذا سُمح بعد هذه الحرب بظهور ظروف في عالمنا تسمح للقوى المتنافسة بحيازة غير منضبطة لوسائل التدمير الجديدة هذه، فإن مدن الولايات المتحدة والدول الأخرى سترزح تحت تهديد مستمر بالإبادة المباغتة. وقد يتعين على الولايات المتحدة حشد جميع مواردها، المادية والمعنوية، لمنع نشوء ظرف عالمي كهذا».

ومنذ ذلك الحين، أُنفقت مليارات الدولارات على الترسانة النووية التي تحافظ على «التهديد المستمر بالإبادة المباغتة» الذي حذَّر منه علماء الفيزياء في يوليو 1945.

صرخة تحذير للعالم

يشير الكاتب إلى أنه قبل ست سنوات أصدر الآلاف من زملائه تحذيرًا مماثلًا بشأن تهديد جديد. إلا أن العريضة هذه المرة لم تكن سرية، ولم تُطوَّر التقنيات الخطيرة في الخفاء، ولكنها تمثل تهديدًا مماثلًا للاستقرار العالمي. ويأتي التهديد هذه المرة من الذكاء الاصطناعي، وبالخصوص، من تطوير أسلحة فتاكة مستقلة؛ أسلحة يمكنها تحديد الأهداف وتعقبها وتدميرها دون تدخل بشري. وتحب وسائل الإعلام تسميتها بـ«الروبوتات القاتلة».

وهذه هي رسالتنا المفتوحة إلى الأمم المتحدة التي حملت تحذيرًا صارخًا:

«السؤال الرئيس الذي يواجه البشرية اليوم هو: هل ينبغي الدخول في سباق تسلُّح عالمي باستخدام الذكاء الاصطناعي أم منعه من الانطلاق. وإذا مضت أي قوة عسكرية كبرى قدمًا في تطوير أسلحة الذكاء الاصطناعي، فإن سباق التسلُّح العالمي يصبح أمرًا حتميًّا. ونقطة النهاية لهذا المسار التكنولوجي واضحة؛ الأسلحة المستقلة ستصبح كلاشينكوف الغد».

ومن الناحية الإستراتيجية، هذا النوع من الأسلحة يُعد حلمًا عسكريًّا؛ إذ تسمح للجيش بتوسيع نطاق عملياته دون قيود بسبب القوى البشرية. فيمكن للمبرمج الواحد قيادة مئات الأسلحة المستقلة، وبإمكان الجيش أن يؤدي أخطر المهام دون أن يعرِّض جنوده للخطر.

أسراب الكوابيس

يرى الكاتب أن هناك العديد من الأسباب التي تجعل حلم الجيش بامتلاك أسلحة فتاكة مستقلة سيتحول إلى كابوس.

Embed from Getty Images

أولًا وقبل كل شيء، هناك حجة أخلاقية قوية ضد الروبوتات القاتلة؛ إذ إننا نتخلى عن جزء من إنسانيتنا إذا سلمنا الأمر لآلة كي تقرر هل يجب أن يعيش الشخص أو يموت. وإلى جانب الحجج الأخلاقية، هناك عديد من الأسباب الفنية والقانونية التي تثير القلق بشأن الروبوتات القاتلة. وأحد أقوى هذه الأسباب هو أن هذه الأسلحة ستُحدث ثورة في الحروب؛ إذ ستصبح أسلحة دمار هائل.

والأمر في السابق كان يحتاج منك أن تكوِّن جيشًا من الجنود لشن حرب أو إلحاق ضرر بدولة أو هدفٍ ما، وكان عليك أن تُقنع هذا الجيش كي ينصاع لأوامرك. كما كان من اللازم أن تدربهم وتطعمهم وتدفع لهم رواتب منتظمة. أما الآن فيمكن لمبرمج واحد فقط أن يتحكم في مئات الأسلحة. وربما تكون الأسلحة الفتاكة المستقلة أكثر إثارة للقلق من الأسلحة النووية؛ إذ يتطلب صنع قنبلة نووية قدرًا كبيرًا من التطور التقني.

وأنت في حاجة إلى موارد الدولة، والفيزيائيين، والمهندسين المهرة، كما تحتاج للوصول إلى المواد الخام النادرة، مثل اليورانيوم، والبلوتونيوم. ونتيجةً لذلك لم تنتشر الأسلحة النووية على نطاق واسع.

ولكن الأسلحة المستقلة لا تتطلب أيًا من هذا، وإذا سُمح بإنتاجها، فعلى الأغلب ستكون متوفرة وزهيدة الثمن. وستكون أسلحة رعب مثالية. هل يمكنك تخيل مدى الرعب أن تُطاردك أسراب من الطائرات المسيَّرة؟ هل يمكنك أن تتخيل أن هذه الأسلحة يمكن أن تقع في أيدي الإرهابيين أو الدول المارقة دون أن نقلق بشأن توجيهها نحو المدنيين؟ ستكون هذه أسلحة مثالية لقمع المدنيين، وهي على عكس البشر، لن تتردد في ارتكاب الأعمال الوحشية، بل الإبادة الجماعية.

حان وقت إبرام المعاهدة

يختم الكاتب بالقول: نحن نقف على مفترق طرق بشأن هذه القضية، إذ يجب أن تُرى على أنه من غير المقبول أخلاقيًّا أن تقرر الآلات مَنْ يعيش ومَنْ يموت. وعلى الدبلوماسيين في الأمم المتحدة أن يتفاوضوا بشأن معاهدة تُحِد من استخدام هذه الأسلحة، تمامًا كما لدينا معاهدات تحد من استخدام الأسلحة الكيميائية والبيولوجية وغيرها. بهذه الطريقة ربما يكون بمقدورنا أن نحمي أنفسنا وأطفالنا من هذا المستقبل المروِّع.

هذا المقال مترجمٌ عن المصدر الموضَّح أعلاه؛ والعهدة في المعلومات والآراء الواردة فيه على المصدر لا على «ساسة بوست».

عرض التعليقات
تحميل المزيد