في ديسمبر (كانون الأول) الماضي نشر أحد المبرمجين -مجهول الهوية- فيديو مفبركًا في مجموعة على موقع «Reddit» وكتب في المنشور أن هذا الفيديو هو عمل تجريبي لإحدى التقنيات الجديدة أطلق عليها اسم «Deep Fake». وهي عبارة عن أداة أو برنامج يمكن لأي شخص استخدامه بسهولة لتركيب صورة شخص على جسم شخص آخر لتبدو كما لو كانت حقيقية، ولقي هذا المنشور انتشارًا واسعًا وتفاعلاً كبيرًا من رواد الموقع، وبعد شهرين فقط أصبحت تلك المجموعة تملك 90 ألف عضوًا، وساهمت هذه المجموعة بنشر البرنامج والفيديوهات المفبركة باستخدامه على الإنترنت بشكل واسع للغاية.

وأثار هذا البرنامج جدلًا واسعًا، حتى أن واحدًا من أشهر المواقع الإباحية الشهيرة أعلن حجبه الفيديوهات المفبركة التي نشرها المستخدمون على الموقع والتي تم فبركتها باستخدام برنامج أو تقنية «Deep Fake» للتشهير بأشخاص آخرين، والحقيقة أن أضرار هذا البرنامج لا تقتصر على التشهير بالناس من خلال الأفلام الإباحية؛ بل يلقي بظلاله على عالم السياسة أيضًا.

علوم

منذ 5 سنوات
4 من أفضل تطبيقات الذكاء الاصطناعي التي تساعدك على تطوير الإنجليزية

«Deep fake».. أداة الفضائح الجنسية المفبركة

تركيب وجوه المشاهير على أجساد عارية في أفلام وصور إباحية هي ظاهرة متعارف عليها منذ عقود، ولكن البرامج والتقنيات التي كانت تستخدم لتركيب الصور والفيديوهات لم تكن متاحة بالشكل الرخيص أو المجاني مثل معظم البرامج الإلكترونية المتاحة في الوقت الحالي، بالإضافة إلى أنه مع تطّور التكنولوجيا وحدوث ثورة في الذكاء الاصطناعي وتطوّر تقنية «Machine learning» أو «تعلّم الآلة»، الذي يمنح الفرصة للتطبيقات البرمجية أن تكون عملياتها أكثر دقة واحترافية، وتعتمد برامج وتكنولوجيا الـ«Deep-Fakes» على تعلّم الآلة، وبالأخص تقنية «Predictive algorithm» أو ما يعرف باسم الخوارزمية التنبؤية، والتي تساعد البرامج والآلات على تعلّم ملامح الوجه، وكيف ستغير تلك الملامح في المواقف المختلفة، وبهذا يضمن لك البرنامج جودة تركيب عالية لتبدو كما لو كانت حقيقة.

ولأن البرنامج سهل الاستخدام؛ فمن خلال خطوتين أساسيتين فقط (صورة واضحة لوجه الشخص، مقطع الفيديو الإباحي أو الصورة الإباحية)، واترك الباقي للبرنامج الذي غالبًا يحتاج إلى 40 ساعة لإنتاج مقطع فيديو واحد قصير المدة.

 

وتتيح تقنية الـ«Deep Fake» ومثلها من التقنيات المشابهة الفرصة للبعض، لتحويل خيالهم الجنسي الجامع الذي يصوّر لهم التواجد في لحظات حميمة مع مشاهير إلى حقيقة. وفي الفترة الأخيرة انتشرت على المواقع الإباحية مجموعة فيديوهات إباحية -مفبركة- للعديد من مشاهير عالم الفن في هوليود.

علوم

منذ 5 سنوات
الذكاء الاصطناعي.. مجال يجعل الشركات الكبرى تدفع لك راتب رونالدو!

نبوءة فيلم ولاد العم تحققت.. برنامج يحوّل الكلام إلى أصوات أشخاص حقيقية

في عام 2008، قدم لنا السيناريست والكاتب عمرو سمير عاطف من خلال فيلمه الشهير «ولاد العم» برنامجًا يستخدمه الموساد الإسرائيلي لتحويل الكتابة إلى أصوات حقيقية، وظهرت سهولة استخدام البرنامج عندما رأينا الضابط الإسرائيلي يكتب نصًا ويحول البرنامج النص إلى صوت، وفي هذا الوقت لم تكن التكنولوجيا عرفت نوعية هذه البرامج التي تستخدم بهذه السلاسة، وذلك لأن كل التقنيات لمشابهة كانت تحتاج إلى تكنولوجيا تطلب أن يمتلك المستخدم مهارات احترافية متخصّصة في هذا المجال.

مشهد فيلم أولاد العم

لكن منذ عامين فقط، تحديدًا في نوفمبر (تشرين الثاني)، أعلنت شركة «Adobe» صاحبة برنامج تحرير الصور الشهير «Photoshop» عن مشروع تكنولوجي جديد سوف يحدث طفرة في عالم التكنولوجيا وصناعة الأفلام، وأطلقت عليه اسم «VOCO»، الذي يحاكي في استخدامه نفس فكرة الجهاز الذي أدمجه الكاتب عمرو سمير عاطف في فيلمه، ويحتاج هذا البرنامج فقط إلى مقطع صوتي مدّته 20 دقيقة على الأقل حتى يتمكن من التعرف على التركيبة النغمية للصوت المراد فبركته، ويقوم البرنامج بدوره بتحويل النص الصوتي إلى كتابي ويمنح الفرصة للمستخدم للحذف أو التعديل أو الإضافة كيفما شاء، فضلًا عن إمكانية حفظ الصوت لاستخدامه في نص آخر.

إعلان شركة «Adobe» عن برنامج «VOCO»

وعلى الرغم من نوايا شركة «Adobe» الحسنة في إنتاج هذا البرنامج التي أعلنت عنها، المتمثّلة في تسهيل استخدام التكنولوجيا على المستخدمين، إلاّ أنّ وجود برنامج سهل الاستخدام بهذه الإمكانيات يفتح الباب على مصراعيه لتشويه أي شخص، من خلال استخدام صوته لفبركة التصريحات والخطب الصوتية، ولكن لشركة «Adobe» رأي في هذا الأمر، فهي أعلنت أنه لن يتم طرح البرنامج للمستخدمين حتى تضيف فيه خاصية اختبار الصوت حتى يتم تحديد إن كان مزيفًا أم حقيقيًّا، وهذا على ما يبدو ما تعمل عليه الشركة، فعلى الرغم من إعلانهم عن مشروع هذا البرنامج في عام 2016 إلا أنه لم يتم طرحه حتى الآن. وعندما سأل أحد المستخدمين على موقع الشركة الرسمي عن إن كان الشركة قد صرفت نظر عن إصدار البرنامج بشكل رسمي أو لا؛ لم يتم حتى الآن الرد على هذا السؤال من قبل الموقع أو أحد ممثليه.

وفي حالة افترضنا أن شركة «Adobe» نجحت في دعم البرنامج بخاصية اختبار المقاطع الصوتية، فهل كل شخص من عامة الناس سوف يمتلك هذا البرنامج ويمتلك مهارات استخدامه؟ ماذا إن شاهد أحد الناخبين فيديو مفبركًا بتقنية الـ«Deep-Fakes» وبرنامج الـ«VOCO» للمرشح الذي كان ينوي التصويت له، يتحدث فيه بخطاب معاكس لذلك الذي يتحدث به دائمًا، هل سيقوم بتغيير رأيه فيه؟ بالتأكيد ستكون لهذه التقنية آثار وانعكاسات خطيرة على العمليّة الديموقراطية.

فيديو مفبرك لباراك أوباما باستخدام الـ«Deep-Fakes» ينتقد فيه دونالد ترامب

علم النفس يجيب.. كيف يمكن لهذه التقنيات التلاعب بالذاكرة البشرية؟

في عام 2010، قام موقع «Slate» بتجربة اجتماعية على الإنترنت؛ نشر فيها الموقع صورة مفبركة للرئيس الأمريكي السابق باراك أوباما وهو يصافح الرئيس الإيراني السابق أحمدي نجاد، ونُشر مع هذه الصورة استبيان للقراء يجيبون فيه عن سؤالين: «هل تتذكر هذه الصورة؟» و«ما كان شعورك عندما رأيت هذه الصورة أول مرة؟»، وكانت المفاجأة أن 21% من الذين شاركوا في الاستبيان قالوا إنهم يتذكرون هذا الحدث، وأنهم غضبوا من أوباما عندما صافح الرئيس الإيراني آنذاك، بينما قال 25% من المشاركين أنهم يتذكرون مصافحة أوباما لأحمدي نجاد ولكنهم لا يتذكرون رؤية الصورة، والحقيقة أن هذه الصورة مفبركة، فبسبب شدة الخلاف بين الولايات المتحدة وإيران، لم تسنح الفرصة ولو لمرة لأوباما وأحمدي نجاد للاجتماع في مكان واحد لتبادل التحيّة على الأقل.

الصورة المفبركة لباراك أوباما وأحمدي نجاد – مصدر الصورة: موقع Slate

أما عن تفسير علم النفس لما حدث، فالسبب يكمن في كيفية تكوين الذاكرة البشرية؛ فالذاكرة ليست كأشرطة الفيديو، يمكنك إعادته وتسريعه كما نشاء، ولكن الذاكرة يتم بناؤها، وتخزين الأحداث بالأساس في شكل معلومات صغيرة، وعند استدعاء هذه الأحداث يقوم العقل البشري بتجميع المعلومات الصغيرة لتكوين الحدث. ولسوء الحظ فإنّ العقل البشري يتميّز بالكسل في هذه العملية؛ وذلك لأنه يقوم بتجميع المعلومات التي يمكن أن تسهل عليه مأمورية تكوين الذاكرة، ويمكن للعقل البشري أيضًا أن يقوم ببناء الذاكرة على معلومة مزيفة لينتهي به الأمر بتكوين ذاكرة عن حدث أو فعل لم يحدث، وهذا بالضبط ما حدث مع صورة باراك أوباما وأحمدي نجاد، وما قد يحدث أيضًا عندما يتم استخدام هذه التقنيات لتزييف أحداث لسياسيين في الماضي من أجل التأثير على شعبيتهم، لذلك فإن تقنيات الفبركة الحديثة سهلة الاستخدام سوف تلقي بظلالها وبشدّة على العملية الديمقراطية في السنين القادمة.

المصادر

تحميل المزيد