مُستجدّات ورُؤى سويسريّة بعشر لغات

كيف تغيّر عمليات “التزييف المتقنة” نظرتنا للواقع

صورة لرؤوس وفي الخلفية أرقام ورسوم
Brain Light / Alamy Stock Photo

فتحت مقاطع الفيديو المزوّرة بتقنية عالية - التزييف العميق - الباب أمام حرية التلاعب بالمحتوى المرئي، للتأثير على الرأي العام ونشر معلومات مضللة . ويوضح لنا اثنان من أبرز خبراء تقنية التزييف العميق "ديبفيك" في سويسرا سبب سهولة خداع العين البشرية.

إن التلاعب بالصور قديم جدًا قدم نشأة التصوير الفوتوغرافي، وقد استخدمه أبراهام لينكولن ليبدو أكثر جمالا وليزيد من هالته الرئاسيه، واستخدمه جوزيف ستالين وماو تسي تونغ للقضاء على المعارضين السياسيين ويمسحهم من التاريخ.

مصطلح “التزييف العميق” بالعربية هو الترجمة الحرفية لمصطلح “ديبفيك deepfake” بالانجليزية والذي تمت صياغته في عام 2017 مستوحًى من مصطلح “التعلم العميق” أو “ديب ليرننغ deep learning” ومعناه (التعلم الآلي “العميق” المعتمد على الذكاء الاصطناعي). 

لكن ، إذا كان خداع العين البشرية في الماضي لا يحسنه سوى البارعون، فقد أصبح اليوم مجرد لعبة أطفال ويكفي مجرد تنزيل برنامج من الإنترنت وتجميع بعض الصور من هنا وهناك عبر محركات البحث أو وسائل التواصل الاجتماعي ليقوم أي شخص بعمل فيديوهات مزيفة تنتشر على الويب كالنار في الهشيم، وكما يقول توراج إبراهيميرابط خارجي، الذي يرأس مختبر معالجة إشارات الوسائط المتعددة التابع للمعهد التقني الفدرالي العالي في لوزانرابط خارجي: “اليوم، صورة واحدة تكفي للقيام بعملية تزييف متقنة”.

وتَستخدم تقنية التزييف العميق الذكاء الاصطناعي لإنشاء صور مفبركة أقرب ما تكون إلى الحقيقة إلى درجة أنها لا تخدع أعيننا فحسب، بل تخدع أيضًا الخوارزميات المستخدمة للتعرف عليها، ومنذ سنوات، يركز فريق إبراهيمي على هذه التقنية وانشاء أنظمة متطورة للتيقن من حقيقة الوجوه والأصوات والصور ولقطات الفيديو.

غير أن القضية أصبحت سباقًا مع الزمن ومع تطوّر التكنولوجيا، فلقد انفجر بركان التلاعب بالمعلومات وأصبح، مع تفشي وسائل التواصل الاجتماعي، يهدد الأمن القومي في أنحاء كثيرة من العالم ، وصار بإمكان ملايين الأشخاص، وكذلك الشركات والحكومات، إنشاء محتوى وسهولة الوصول إليه، بل وأيضَا التلاعب به، وتعتبر وفقًا لإبراهيمي دول مثل روسيا والصين وإيران وكوريا الشمالية نشطة للغاية في نشر الإشاعات، والأخبار المزيفة باستخدام تقنية “التزييف العميق” داخل وخارج حدودها الوطنية.

المزيد
-
رسم يُصور فتاة جالسة أمام شاشة حاسوب

المزيد

الكُلُّ يراقبني

تم نشر هذا المحتوى على يكتشف فريق من الباحثين يُحَقِّقون في مقاطع فيديو تم التلاعُب بها من خلال تقنية “التزييف العميق” شيئًا مثيرا للرعب بشأن رئيسهم الجديد يُعرّض حياتهم للخطر.

طالع المزيدالكُلُّ يراقبني

العين تريد نصيبها (من الحقيقة)

ليس من السهل على الناس التشكيك في صحة ما تراه الأعين، وقد أظهرت دراسة أجراها معهد ماساتشوستس للتكنولوجيارابط خارجي أن الأخبار المزيفة تنتشر على تويتر بسرعة قد تفوق الأخبار الحقيقية بست مرات، مما يجعل ظاهرة التزييف العميق مثار قلق كبير، بحسب إبراهيمي الذي يقول: “إن للتزييف العميق قدرة كبيرة على التضليل لأن الناس ما زالوا يميلون إلى تصديق ما يرَوْن”.

كما وأن جودة الفيديوهات مستمرة هي الأخرى في التطور، وهذا يجعل إمكانية التمييز بين الحقيقي منها والمزيّف أكثر صعوبة، ووفق إبراهيمي: “بإمكان أي دولة لديها موارد غير محدودة أو غنيّة أن تنتج اليوم فيديوهات مزيّفة تطابق الحقيقية لدرجة أنها تخدع حتى أكثر العيون خبرة”، وبينما تستطيع البرامج المتطورة كشف التزييف، إلا أن أستاذ المعهد التقني الفدرالي العالي في لوزان يقدر أنه في غضون عامين إلى خمسة أعوام لن تكون حتى الآلات المتطوّرة قادرة على تمييز المحتوى الحقيقي من المزيف.

«المزيد والمزيد من التلاعب»

بدايةً ، استُخدمت الفيديوهات المزيفة بشكل رئيسي على سبيل إنشاء مقاطع فيديو ساخرة لممثلين أو لغيرهم من الشخصيات المشهورة أو في ألعاب الفيديو ، ولكنها سرعان ما أصبحت أداة فعالة لتشويه السمعة، خاصة في حق النساء، ووسيلة لابتزاز الأموال والتلاعب بالرأي العام.

يعمل مختبر توراج إبراهيمي منذ عشرين عامًا على قضايا أمن وسائط الإعلام وسلامة مقاطع الفيديو والصور والصوت والكلام . ففي بداية الأمر، كان التلاعب يتعلّق أساسًا بحقوق التأليف والنشر، ثم انتقل بعد ذلك إلى الخصوصية والمراقبة بالفيديو ، إلى أن ظهرت وسائل التواصل الاجتماعي، فساهمت بشكل هائل في نشر المحتوى المزيّف.

يمكن للتزييف العميق أن يتجاوز أجهزة كشف المنتجات المقلّدة، ولذلك يستخدم مختبر إبراهيمي “نموذجًا تحليليًا” يعرف باسم “تقنية المصدر” لتحديد، بشكل مجهول الهوية، كيف أنشئ المحتوى وما هو التلاعب الذي حصل فيه: “ولكي تكون تقنية المصدر فاعلة ، لابد من استخدامها من جانب عدد كبير من ذوي النفوذ على الويب بدءًا من غوغل وموزيلا وأدوب، ومايكروسوفت إلى جميع وسائل التواصل الاجتماعي، على سبيل المثال لا حصر”، كما يقول الخبير ، ويضيف أن: “المقصود هو الاتفاق على معيار JPEG [ملف صور وفيديو] ليتم تطبيقه عالميًا”.

وقد أثبتت تقنية “ديبفيك” قدرتها على المزج بين صورتي وجهي شخصين مختلفين لتزوير الملامح، على سبيل المثال، أو حتى لتزوير الهوية، كما استغلها مجرمو الإنترنت لخداع الشركات وتحصيل أموال منهارابط خارجي وانتحال شخصيات مدراء والتذرع بطلب تحويلات مصرفية عاجلة.

“في الوقت الحاضر، هذا النوع من التلاعب قليل الانتشار، ولكن حينما تنضج هذه التكنولوجيا، فسنرى المزيد والمزيد” ، هكذا يتوقع سيباستيان مارسيلرابط خارجي، كبير الباحثين في معهد الأبحاث السويسري “آي دياب idiap” ، ويوضح بأن تقنية “التزييف العميق” الحالية تتيح التلاعب بالمحتوى المرئي فقط، وليس الصوتي، وإذا لم تؤخذ الأصوات من مقاطع فيديو أخرى، فبالإمكان انتحالها من قبل محترفين، وبينما: “لا يزال تزييف الصوت يمثل تحديًا، سنشهد مستقبلًا تقنية ꞌديبفيكꞌ في غاية الواقعية ، قادرة على استنساخ صورة أي شخص وصوته في الوقت الحقيقي وبدقة متناهية”، عندئذ ستصبح عمليات التلاعب، مثل فبركة فضائح زائفة ضد منافسين لتعطيل صفقات أو عقود تجارية غير مرغوب بها ، أمرًا في غاية السهولة.

إنكار الحقيقة

ويشير إبراهيمي إلى أن تزييف مقاطع الفيديو قد تكون له أيضًا نتائج إيجابية، ويقول: “تمّ بالفعل استخدام تقنية التزييف العميق في العلاج النفسي للتخفيف من معاناة أشخاص فقدوا عزيزًا عليهم” ، كما حصل في هولندارابط خارجي أن أنشأ أب حزين على فراق ابنته، التي عاجلتها الوفاة وهي في مقتبل عمرها، صورة لها مزيفة رغبة منه في تحيتها، وهناك موقع “ماي هيريتاج MyHeritage” مختص بعلم الأنساب يستطيع القيام بشيء مماثل، ويمكنه عبر أداة تسمى “ديب نوستالجيا DeepNostalgiaرابط خارجي” “بعث الحياة” في صور الأقارب المتوفين من خلال تحريك قسمات الوجه.

غير أنه مع زيادة الوعي بمحتوى التزييف العميق، من الممكن أن يحصل خلط في التفريق بين مقاطع الفيديو الحقيقية وتلك ذات المحتوى المزيّف، ففي الغابون، اعتُبر الفيديو الذي ظهر فيه الرئيس علي بونغو ، بعد غيابٍ عن المشهد العام لأسابيع بسبب المرض، مزوّرًا، ممّا تسبب في قيام مجموعة من قادة الجيش بانقلاب عسكريرابط خارجي.

إن عدم التيقّن ممّا هو حقيقي عمّا هو غير ذلك، وفق قول الباحثة نينا شيك في كتابها “Deepfakes: The Coming Infocalypseرابط خارجي“، يمكن أن يقود إلى عواقب غير محمودة، فقد تنشأ ثقافة “إنكار المعقول” بالتالي يتنصّل الجميع من تحمّل المسؤولية لأن كل شيء قد يكون مزيّفًا.

ولفتت شيك إلى أن: ” تقنية التزييف العميق يمكن أن تتيح لكل شخص إمكانية تزوير كل شيء، وإذا كان بالإمكان تزوير كل شيء، فكل شخص يمكنه أن يتخذ “إنكار المعقول ذريعة”، وهو ما يعتبر ، بحسب الخبيرة ، واحدًا من أكبر الأخطار التي يشكّلها التزييف العميق على المجتمع.

كيفية محاربة ثقافة “الأخبار الزائفة”

وما يبشر بالخير هو أن الاتحاد الأوروبي يحمل القضية محمل جدٍ ، ومن شأن مشاريع مثل “هوريزون يوروب Horizon Europe” أن تشجع البحث في مجال مقاطع الفيديو المزيفة، ويقول مارسيل: ” نتوقع أن يطلق الاتحاد الأوروبي في السنوات القادمة مزيدًا من النداءات بخصوص تقنية ꞌديبفيك” ، وأما على المستوى التقني ، فتقتضي معالجة التزييف العميق أن نكون سبّاقين ونركز على نقاط ضعف النظام، وقال الباحث لدى معهد “آي دياب idiap”: “لكنّ قد لا يكون الأمر بتلك البساطة ، لاسيما وأنّ الإجراءات الأكاديمية للحصول على التمويل بطيئة”.

ومن الأهمية بمكان تفعيل المجتمع المدني، ويتفق إبراهيمي ومارسيل على أن محاربة الأخبار المزيفة تتطلّب زيادة وعي وتثقيف الجمهور لتعزيز الوجدان النقدي وتعميق الإحساس بالمسؤولية المدنية، ووفقًا لإبراهيمي: “علينا أن نعلّم أبناءنا التوجّس من كل شيء يرونه على الإنترنت وعدم نشر أي محتوى دون تثبّت”.

وبالفعل ، نجحت فنلندا في ذلكرابط خارجي. هذه الدولة الاسكندنافية تحارب الأخبار المزيفة في المدارس، وهذا يجعلها نموذجًا للديمقراطيات الغربية، فخبراء الحكومة الفنلندية يعتبرون معلمة رياض الأطفال خط الدفاع الأول في مواجهة المعلومات المضلّلة.

متوافق مع معايير الصحافة الموثوقة

المزيد: SWI swissinfo.ch تحصل على الاعتماد من طرف "مبادرة الثقة في الصحافة"

يمكنك العثور على نظرة عامة على المناقشات الجارية مع صحفيينا هنا . ارجو أن تنضم الينا!

إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.

SWI swissinfo.ch - إحدى الوحدات التابعة لهيئة الاذاعة والتلفزيون السويسرية

SWI swissinfo.ch - إحدى الوحدات التابعة لهيئة الاذاعة والتلفزيون السويسرية