يومًا عن يوم يزداد تطور الذكاء الاصطناعي وتقنياته التي يمكن تطبيقها في إنشاء المحتوى المزيّف ومحاكاتِه بشكلٍ شديد الدقة أو نشره على نطاقاتٍ واسعة. وتثير تقنيات «التزييف العميق» مخاوف الكثيرين لمدى براعتها وسرعة تطورها في إنتاج مقاطع مرئية مدموجة بالصوت لا يمكن كشفها بشكلٍ بسيط، رغم أنها مزيفة بالكامل.

ضمن هذا السياق نشر موقع مختبر نيمان (Nieman Lab) مقالًا لـ«فرانشيسكو ماركوني» رئيس البحث والتطوير في صحيفة «وول ستريت جورنال» بالتشارك مع «تيل دالدراب» وهو زميل باحث في الصحيفة نفسها. يغطي المقال خبرات الصحيفة ومعارفها حتى الآن في تقصّي تقنيات «التزييف العميق» وتطوير الوعي التكنولوجي في غرفة الأخبار مقابل منتجات المحتوى المزيف المولّد بالذكاء الاصطناعي شديد الحداثة. لكن قبل أن تنتقل إلى الفقرة التالية:

هل يمكنك تحديد أيّ صورة مزيّفة وأيتها حقيقية من الصورتين التاليتين؟

 

via GIPHY

 

(الإجابة في أسفل المقال)

 

كيف تصنع مقاطع «التزييف العميق»؟

كيف تصنع مقاطع «التزييف العميق»؟

يعتمد إنتاج معظم محتوى «التزييف العميق» (deepfakes) على تقنية التعلم الآلي المعروفة تحت اسم « generative adversarial networks» أو اختصارًا «GANs».  يمكن استخدام هذه التقنية من قبل المزورين البارعين لتبديل الوجه ما بين شخصين، فيحمل كل شخص وجه الآخر- مثلًا يمكن تطبيقها على السياسيين والممثلين المعروفين. تبحث الخوارزمية عن حالاتٍ يعرض فيها الأفراد تعبيرات متماثلة ووضعية الوجه، وفي الخلفية تبحث خوارزميات الذكاء الاصطناعي عن أفضلِ تطابقٍ ممكن لإدراج الوجهين.

 ليس هنالك مقطع فيديو أو صوت منيع ضد التزوير، وليس هنالك شخص محميّ. يمكنك تشبيه تقنيات «التزييف العميق» بالفوتوشوب لكن للمقاطع المرئية والصوتية. لا تصدق كل ما تراه، أو لا تصدق أيّ شيء مما تراه… دون أن تتحقق جيدًا

الأبحاث حول تقنيات «GANs» ونهج التعلم الآلي الأخرى متاحة للعامة، وهو ما أدى إلى انتشار القدرة وتوفير الإمكانيات لتوليد المحتوى المزيف العميق. البرامج مفتوحة المصدر تمكّن سلفًا أي شخص لديه بعض المعرفة التقنية وكرت شاشةٍ قوي بما فيه الكفاية من توليد محتوى مزيف عميق.

تتخذ بعض المؤسسات الأكاديمية – مثل جامعة نيويورك – مناهج فريدة لمحو أمية وسائل الإعلام. يوجد مثلا مادّة بعنوان «تزييف الأخبار» تُدرّس ضمن برنامج الاتصالات التفاعلية (ITP) في مدرسة تيش العليا-ويتعرّف الطلاب فيها على مخاطر «التزييف العميق» عبر تعليمهم كيفية تزوي المحتوى باستخدام تقنيات الذكاء الاصطناعي.

 

التقنيات المستخدمة لإنشاء محتوى «التزييف العميق»

يمكن لخبراء وصانعي المحتوى المزيف العميق استخدام مجموعة متنوعة من التقنيات، يذكر المقال بعضًا منها:

تبديل الوجه: أو «Faceswap»، ويمكن للخوارزمية فيه أن تدرج وجه شخصٍ ما بسلاسة ضمن الفيديو المستهدف. يمكن استخدام هذه التقنية لوضع وجه الشخص الأول على جسدٍ آخر فاعل ومن ثم إظهاره ضمن مواقف لم يوجد فيها أبدًا.

مزامنة الشفاه: أو «Lip sync»، يمكن للمزورين إدراج فمٍ مزيف متزامن على وجهِ شخصٍ آخر. قد يؤدي الجمع بين الفيديو والصوت الجديد إلى إظهار الشخص المستهدف وكأنه يقول أشياء لم يقلها في الحقيقة.

نقل تعابير الوجه وإعادة تمثيلها: أو «Facial reenactment»، يمكن للمزورين نقل تعبيرات الوجه من شخصٍ ما إلى فيديو آخر. باستخدام هذه التقنية، يمكن للباحثين اللعب بمظهر الشخص وجعله يبدو مستاءً أو غاضبًا أو متفاجئًا أو أيّا ما يريده المزوّر.

 

نقل الحركة: أو « Motion transfer»، اكتشف الباحثون أيضًا كيفية نقل حركات الجسم لشخصٍ ما من الفيديو المصدر إلى شخصٍ آخر في الفيديو المستهدف. على سبيل المثال، يمكن رصد حركات راقصٍ ما وإظهار الممثلين المستهدفين يتحركون بالطريقة نفسها. بالتعاون مع الباحثين في جامعة كاليفورنيا، جرب «جايسون بيليني» مراسل صحيفة «وول ستريت جورنال» التقنية المذكورة على نفسه، وانتهى به الأمر ليظهر في مقطع فيديو يرقص فيه مثل الفنان «برونو مارس».

يؤدي الصحافيون دورًا مهمًا في إطلاع الجمهور وتنبيهه لمخاطر وتحديات تكنولوجيا الذكاء الاصطناعي، والنشر حول هذه المسائل هو وسيلة لرفع مستوى الوعي وتثقيف الجمهور.

 

via GIPHY

 

مراسل صحيفة «وول ستريت جورنال» يطبّق أحد تقنيات الذكاء الاصطناعي على نفسه ليبدو راقصًا محترفًا مطابقًا بحركاته لأحد الفنانين المعروفين.

عصر الصحافي «الروبوت».. هكذا ستتحكم البرمجيات في غرف الأخبار

 

كيف يمكنك اكتشاف «التزييف العميق»؟

تعمل الصحيفة على إيجادِ حلولٍ مبتكرة واختبار أدواتٍ جديدة للمساعدة في اكتشاف ومنع انتشار الوسائط المزوّرة. يمكن للمؤسسات الإخبارية بمختلف أنواعها أيضًا التفكير في أساليب متعددة للمساعدة في التوثق من المحتوى الإعلامي، خصوصًا في حال الاشتباه بوجود تبديلات أو تغييرات.

توضح «ناتاليا أوسيبوفا»، وهي واحدة من كبار الصحافيين في قسم صحافة الفيديو التابع لـ«وول ستريت جورنال»: «هنالك طرق تقنية لفحص ما إذا كانت اللقطات قد عدّلت، مثل  التحقق من الفيديو لقطةً بلقطة ضمن برامج تحرير الفيديو للبحث عن أيّ أشكالٍ غير طبيعية وعناصر مضافة، أو إجراءِ البحث العكسي للصور». لكن الخيار الأفضل يبقى في الاتباع لتقاليد التقرير الصحافي في كثيرٍ من الأحيان عبر «التواصل مع المصدر والموضوع مباشرة، واستخدام محاكمتك التحريرية للأمر».

 

فحص المصدر

إذا أرسل لك شخص ما صورًا أو مقاطع مشبوهة، فإن الخطوة الأولى الجيدة هي محاولة الاتصال بالمصدر نفسه. كيف حصل عليها هذا الشخص؟ وأين ومتى تم تصويرها؟ اكتساب أكبر قدرٍ ممكن من المعلومات، والمطالبة بالمزيد من الأدلة فيما يتعلق بالادعاءات، ومن ثم التحقق والتثبت من كل ما ورد؛ كل هذه الخطوات عناصر أساسية.

إذا كان الفيديو منشورًا عبر الإنترنت وكان مصدره أو محمّله غير معروف، فإن الأسئلة التي يمكن استكشافها في هذه الحالة هي: من يزعم أنه صوّر اللقطات؟ من نشرها وشاركها ومع من؟ يمكن التحقق من البيانات الوصفية «metadata» للفيديو أو الصورة باستخدام أدواتٍ من قبيل «InVID» أو غيرها من مستعرضات البيانات الوصفية التي تحمل إمكانية تقديم إجابات جيدة. 

بالإضافة إلى متابعة هذه العملية داخليًا، تتعاون الصحيفة مع منظمات التحقق من المحتوى مثل «ستوريفُل» و«أسوشييتد برس». يعتبر الوضع حاليًا سريع التغير وكثير المستحدثات يتخلله ظهور حلول وأدواتٍ مبتكرة تظهر بشكلٍ منتظم في السوق. على سبيل المثال، تتضمن الأدوات الجديدة أمثلةً متنوعة مثل «TruePic» و«Serelay»، وتستخدم تقنيات البلوكتشين للاستيثاق من الصور. بغض النظر عن ماهية التكنولوجيا المستخدمة وأنواعها، يبقى البشر الموجودن في غرفة الأخبار هم قلب العملية وجوهرها. يقول «راجيف بانت» الرئيس التنفيذي لقسم التكنولوجيا في الصحيفة:

التكنولوجيا وحدها لن تحل المشكلة. طريقة مكافحة «التزييف العميق» تكمن في دعم البشر باستخدام أدوات الذكاء الاصطناعي

 

ابحث عن النسخٍ القديمة للمشاهد

غالبًا ما يعتمد «التزييف العميق» على لقطاتٍ متوفرة بالفعل عبر الإنترنت. من المفيد الذهاب إلى محركات البحث العكسية للصور مثل «تن آي» أو «بحث الصور عبر جوجل» لإيجاد النسخ والإصدارات القديمة الممكنة للفيديو لاستكشاف إذا ما تمّ إجراء أيّ تلاعب على الفيديو أم لا.

فحص اللقطات

برامج التحرير – مثل «فاينال كت» – تمكّن الصحفيين من إبطاء اللقطات وتكبير الصور ونظر إلى الفيديو لقطةً بلقطة أو التوقف لمرات عدة. يساعد هذا في الكشف عن مواطن الخلل الواضحة: وميض الألوان والضبابية حول الفم أو الوجه، والتباينات في درجات ألوان البشرة، والإضاءة أو الحركات غير الطبيعية، وغيرها من تفاصيل دالّة على وجود «التزييف العميق».

على سبيل التجربة، إليك بعض مواطن الخلل التي اكتشفها فريق التقصي التابع للصحيفة خلال جلسةٍ تدريبية عرض فيها لقطاتٍ لباراك أوباما أنشأها منتجو الفيديو في «باز فيد».

 

 

تكشف الأشكال الشبيهة بالصناديق حول الأسنان أن هنالك صورًا مرتّقة فوق اللقطات الأصلية

تظهر الحركات غير الطبيعية مثل تحول الذقن والتنامي في الرقبة أن اللقطات مزيفة.

 

بالإضافة إلى تفاصيل الوجه الملحوظة أعلاه، قد تكون هنالك تعديلات صغيرة أيضًا في مقدمة أو خلفية اللقطات. هل يبدو أن هنالك كائنًا أُدرِجَ أو حذف من المشهد، والذي يمكن أن يغيّر سياق الفيديو؟ (مثلًا: سلاح – رمز – شخص – وما إلى ذلك من عناصر). بمنهج التقصي نفسه، قد يشكّل الوميض، والغموض، والضوء غير الطبيعي مؤشرات على الصور المزيفة.

بالنسبة للمحتوى الصوتي، راقب إيقاع الصوت غير الطبيعي، والتنفس غير المنتظم، والأصوات معدنية الطابع، والتعديلات الواضحة. كل هذه إشارات إلى أن الصوت قد تم إنشاؤه عن طريق الذكاء الاصطناعي. ومع ذلك، من المهم ملاحظة أنه يمكن أيضًا أن يكون السبب وراء الآثار الصناعية، ومواطن الخلل، والعيوب عائدة لضغط الفيديو. لذلك من الصعب أحيانًا تحديد ما إذا كان الفيديو مزورًا أم لا بهذه الطريقة فحسب.

 

التعامل الديمقراطي مع ابتكارات «التزييف العميق» يرفع من مستوى التحدي

تُنشئ عدد من الشركات تقنياتٍ جديدة – في كثير من الأحيان لأسباب حميدة ولا تستهدف الضرر- لكن يمكن استخدامها في النهاية من المزورين لتعزيز وابتكار محتوى مزيّف. يذكر المقال بعض الأمثلة في هذا السياق:

 

استخراج الكائن

تعمل شركة «أدوبي» على مشروع «بروجكت كلوك»، وهو أداة تجريبية لإزالة الكائن في الفيديو، مما يجعل من السهل على المستخدمين إزالة الأشخاص أو أيّ تفاصيل غير مرغوبة من اللقطات. قد يكون المنتج مفيدًا في تحرير الصور المتحركة، لكن بعض الخبراء يعتقدون أن التعديلات الدقيقة مثل هذه – إزالة التفاصيل الصغيرة من داخل الفيديو- قد تكون أكثر خطورة من المواد المزيفة بشكلٍ صارخ، نظرًا لصعوبة اكتشافها.

 

تغيير الطقس

ابتكرت خوارزميات لترجمة الصور تمكّن المستخدمين من تغيير الطقس أو الوقت من اليوم في الفيديو، على سبيل المثال التطبيق المشروح ضمن هذا المستند والذي طوّرته شركة «إنڤيديا» – المصنّعة للعتاد الإلكتروني وشرائح الكمبيوتر – عن طريق استخدام تقنية «generative adversarial networks» المذكورة سابقا. يمكن استخدام هذه الخوارزميات في مرحلة ما بعد الإنتاج لمشاهدة الأفلام المصوّرة خلال أيّام وأوقاتٍ وطقوسٍ مختلفة.

لكن قد يسبب هذا إشكاليات بالنسبة إلى غرف الأخبار غيرها، لأنه من أجل التحقق من لقطات الفيديو وتقصي أوقات تصوير الفلم، من الشائع فحص الوقت الذي صوّرت به من اليوم، والطقس، وموضع الشمس، وغيرها من المؤشرات للاستدلال على أيّ تناقضات.

يذكر المقال أن كلًا من «أدوبي» و«إنڤيديا» رفضا التعليق على الأمر.

أصوات اصطناعية

يمكن أيضًا التلاعب بالملفات الصوتية بصورة آلية: تقوم شركة «لايربيرد» مثلًا بإنشاء أصواتٍ اصطناعية استنادًا إلى عيّنات صوتية لأشخاصٍ حقيقين. توفر دقيقة واحدة من التسجيلات الصوتية لهو كفيلٌ بإنشاء نسخة رقمية كاملة يمكن عبرها جعل صوت الشخص المستهدف يقول أيّ جملة يكتبها المستخدم في النظام. تتضمن تطبيقات هذه التقنية لمطوّري ألعاب الفيديو إتاحة إضافة أصواتٍ مختلفة للشخصيات.

إتاحة أدوات التلاعب بالفيديو والصوت بسهولةٍ للمستهلكين قد يسرّع من تفشّي «التزييف العميق»، وتدرس بعض الشركات المصنّعة لتلك الأدوات طرقًا لضمان منع سوء الاستخدام لتقنياتها. يقول «ألكسندر دي بريبيسون» الرئيس التنفيذي لشركة «لايربيرد» وأحد مؤسسيها: «نحن نستكشف عدة اتجاهات بما في ذلك تقنيات تشفير الوسم بالعلامة المائية، وبروتوكولات الاتصال الجديدة، فضلًا عن تطوير الشراكات مع الأوساط الأكاديمية للعمل على مسائل الأمن والتوثيق».

 

تداعيات انتشار «التزييف العميق» على المجتمع

رغم أن استخدام تلك التقنيات له منافع متعددة من ضمنها خفض تكاليف الأفلام والألعاب والمنتجات الترفيهية المماثلة بشكل كبير، لكن المقال ينوّه إلى الخطر الجسيم الذي تمثله على وسائل الإعلام وعلى المجتمع بصورةٍ عامة. على سبيل المثال، يمكن لمقاطع الفيديو المزيفة أن تضع السياسيين في اجتماعات مع عملاء أجانب أو أكثر من ذلك يمكنها إظهار الجنود يرتكبون جرائم ضد المدنيين. أما المقاطع الصوتية الزائفة يمكن أن تُظهِر مسؤولين حكوميين في حواراتٍ خاصة يخططون فيها لشنّ هجمات ضد دول أخرى.

يصرّح «روي أزولي» المؤسس والرئيس التنفيذي لشركة «Serelay» –وهي منصّة تمكّن الناشرين من حماية محتواهم من عمليات التزوير قائلًا: «نعرف أن التزييف العميق وغيرها من عمليات التلاعب بالصور فعّالة، هذا النوع من التزييف يمكن أن يُحدِث تداعياتٍ فورية. النقطة التي علينا أن نحذر منها فعلًا حينما تصبح هذه التقنيات رخيصة، لأن عامليّ الرخص والفعالية يعني إشاعتها».

في الوقت الحاضر، يحذّر المشرّعون مثل عضويّ مجلس الشيوخ «مارك وارنر» و«ماركو روبيو» من سيناريوهات مماثلة ويحاولون العمل على استراتيجيات ممكنة لتجنبها. وما هو أكثر من ذلك، يمكن أن يستخدم «التزييف العميق» لخداع المؤسسات الإخبارية وتقويض الثقة بهم. قد يؤدي نشر فيديو مزيف لم يتم التحقق منه في قصة إخبارية إلى إلحاق وصمة العار بسمعة غرفة الأخبار؛ مما يؤدي في نهاية المطاف إلى فقدان مزيد من الثقة في المؤسسات الإعلامية. وهناك خطر آخر يواجه الصحافيين: هجمات «التزييف العميق» الشخصية التي يمكن أن تظهر مهنيي الأخبار في حالات تواطؤ أو مساومة أو تغيير الحقائق، والتي تصبّ في نفس الهدف: تشويه سمعة الإعلاميين أو تخويفهم.

«خوارزمية جوجل».. هل تجعلنا محركات البحث أكثر عنصرية؟

 

 

يشقّ «التزييف العميق» طريقه نحو وسائل التواصل الاجتماعي، ومن المرجح أن يتّبع انتشارهم نفس النمط الذي تسلكه القصص الخبرية المزيفة الأخرى. في دراسةٍ أجراها معهد ماساتشوستس للتكنولوجيا حول انتشار المحتوى المزيف في «تويتر» ضمن فترة ما بين عاميّ 2006 و2017، وجد الباحثون أن «الأكاذيب انتشرت بشكلٍ أكبر وأسرع وأعمق وأوسع نطاقًا من الحقيقة في جميع فئات المعلومات». يحتمل أن يُعاد تغريد المحتوى المزيف بنسبة 70% أكثر من المحتوى الحقيقي، ووصلت إلى جمهور من 1500 شخص أسرع بستة أضعاف من المقالات الدقيقة.

 تنتشر الأكاذيب بشكلٍ أكبر وأسرع وأعمق وأوسع نطاقًا من الحقيقة في جميع فئات المعلومات ضمن وسائل التواصل الاجتماعي، والإحصائيات تبيّن غلبة المحتوى المزيف بفارقٍ ضخمٍ جدًا

 

 

ماذا بعد؟

لن يختفي «التزييف العميق» قريبًا بل يرجّح أنه سيتعاظم ويتطور. يمكن توقع أن عمليات التزوير التفصيلية والمعقدة تلك ستزيد من صعوبة التحقق من قبل وسائل الإعلام وسيزداد التوثق صعوبةً مع الوقت.

يقول البروفسور «هاني فريد»خبير التحليل الجنائي الرقمي للصور: «شهدنا ارتفاعًا سريعًا في تكنولوجيا التعلم العميق والسؤال: هل سيستمر ذلك؟ أم هي الذروة؟ ماذا سيحدث بعد ذلك؟». سينضمّ البروفسور إلى هيئة التدريس في جامعة كاليفورنيا في بيركلي في العام المقبل، ويعتقد أن الأشهر الثمانية عشر المقبلة ستكون حاسمة؛ لأن هذه المسائل ستحتدم و«تحلّ على رؤوسنا»، مضيفًا توقعه بأن يحقق الباحثون تقدمًا قبل الدورة الانتخابية الأمريكية لعام 2020.

على الرغم من عدم اليقين الحالي، ينبغي على غرف الأخبار متابعة تطور هذا التهديد من خلال إجراء الأبحاث بالشراكة مع المؤسسات الأكاديمية، فضلًا عن تدريب الصحافيين على طرق استغلال الأدوات الجديدة.


هذا هو الجواب لمسابقة استكشاف «التزييف العميق»:

اللقطات على اليسار هي المزيّفة والمعدّلة بتقنيات الذكاء الاصطناعي.

 

via GIPHY

 

 

استخدم فريق من الباحثين شكلًا من أشكال إعادة تمثيل تعابير الوجه يسمى «Deep Video Portraits» لنقل تعابير وجه باراك أوباما إلى وجه رونالد ريغان. وهكذا تبدو عملية النقل:

via GIPHY

 

 

 

هذا المقال مترجمٌ عن المصدر الموضَّح أعلاه؛ والعهدة في المعلومات والآراء الواردة فيه على المصدر لا على «ساسة بوست».

عرض التعليقات
تحميل المزيد