ماذا لو كان من المُمكن ترتيب الموتة المثالية بشكل مُسبق؟ في هذه الحلقة الجديدة من سلسلة الخيال العلمي التي نقترحها عليكم، نهتم بـ "نكروزيا"NecrosIA ، وهي خدمة روبوتية فاخرة للمُساعدة على الانتحار. ولكن عندما يتم استخدام أحدث أنظمة الذكاء الاصطناعي على العملاء والعميلات، يُصبح الموت الطوعي أكثر صعوبة مما كان متوقعًا..
“وقتك ثمين، فلا تضيّعه في ترتيب وفاة مثالية. ولأن كل دقيقة من لحظاتك الأخيرة يجب أن تكون ساحرة، انسَ همومك ودعْ خدماتنا الفاخرة تهتم بكل شيء.
“نكروزيا” NecrosIA، الشركة الرائدة في مجال الروبوتات للمساعدة على الانتحار”.
مدينة فاضلة أم واقع فاسد؟ حلم أم حقيقة؟ تضعنا الثورة التكنولوجية المُعاصرة في مواجهة أسئلة جوهرية حول مستقبل البشرية. هل ستكون التقنيات الجديدة حليفنا أم عدونا؟ كيف ستغير هذه التقنيات دورَنا في المجتمع؟ هل كُتِب علينا أن نتطور إلى نوع من البشر الخارقين، أم أننا سنكون خاضعين لقوة الآلات؟
“يوتوبيا وديستوبيا الغد”هي سلسلة فريدة من قصص الخيال العلمي القصيرة التي طورتها SWI swissinfo.ch للإجابة على هذه الأسئلة بطريقة مُبتكرة ومُتبصِرة. وبفضل إبداع مجموعة من كتاب الروايات الخيالية وتعاون الباحثين والمهنيين السويسريين العاملين في المجالات التي تم طرحها في القصص، سوف نحاول أن نتخيل ونفهم احتمالات قدرة التكنولوجيا على تشكيل حياتنا. سوف تكون كل قصة خيال علمي مترافقة مع مقالة واقعية بالتعاون مع علماء سويسريين بارزين لفهم ما يحدث في بعض مجالات البحث الأكثر تطوراً وإثارة لخيالك!
ألقيتُ بالورق المقوى الصقيل على المنضدة في غرفة الفندق حيث وضعتُ للتو حقائبي. على ظهر الورقة، وبأحرف قُزحية، كلمتان صغيرتان ثقيلتان بنفس القدر الذي يكتنزه العبء الذهني وحجم الإرث الذي تريد والدتي أن تتركه لي: “اتصل بي”.
لم أسمع صوتها منذ شهور. منذ أن غادرتُ مكتبها مُوصدة الباب بقوة. حتى أكون صادقة، لم أعد أتذكّـر النبرة الأصلية لصوتها، تلك النبرة السابقة، التي كانت تغمُرني بالتهويدات والضحكات. إن مُركِّـب الصوت الذي تستخدمُه منذ سنوات لا يُنصف المرأة العظيمة التي أنجبتني. جميع أصدقائي الذين اكتشفوه (أي مُركِّـب الصوت) وأصيبوا بالغثيان أو وجدوا أنه من المُضحك التلاعب بكلمات مثل “هوكينغ” [في إشارة إلى الباحث ستيفن هوكينغ، الذي توفّي بسبب إصابته بتصلب جانبي ضموري] لم يكونوا يتجاوزن عادة مرحلة العشاء العائلي في بيتي.
خلعتُ حذائي المخصّص لممارسة رياضة المشي، ومعطفي المشمّع مع قبعته وسروالي الخاص بالتجوال لمسافات طويلة قبل الاستلقاء على السرير لمُعاينة جدول أعمالي لليوم التالي. مجموعة من المُعمّرين البالغين من العمر مئة سنة يُريدون تسلق جبل ماترهورن ثم الهبوط من القمة ببدلة طيران مُجنّحة للاحتفال بعيد ميلاد أحدهم.. هذا هو الحدث الثالث من هذا الصنف الذي أقوم بتنظيمه هذا العام، وكأن هذه الفئة من العُملاء ينشرون المعلومة فيما بينهم ويتبادلون بطاقتي التعريفية. أشعة الشمس وقوة الرياح والملف الشخصي لكل مشارك: أتحقق من مؤشرات الأمان الخاصة بي. تُفلت منّي ضحكة ساخرة بطعم المرارة. من المُمكن “تحسين” مجانين أصحّاء لكي يعيشوا إلى أجل غير مسمى والتحليق في الجو، ولكن لا وجود لعلاج ” لداء شاركو – ماري -توث” الذي أصبتِ به والذي يُسمّركِ في كرسيك المتحرك؟ في أي عالمٍ حملتِ بي يا أمّي؟
أولى تباشير الفجر البرتقالية تدغدغ إطار النافذة. أؤجّل المكالمة مع “نكروسيا” NecrosIA . لا شك في أن والدتي تنشط لإجرائها على الرغم من الوقت المبكر. هي لا تفهم لماذا لم أعد للنوم في المنزل، ولماذا لا أرغب في استلام إدارة الشركة المزدهرة التي أنشأتها.
أغرق في نوم بلا أحلام وأستيقظ مُنتفضة. أتلمّس تلقائيًا التجويف الموجود خلف شحمة أذني اليمنى بإصبعي، لكن يتّضح أن بشرتي ناعمة وطرية.. بل عذراء. أتنهّد وأستنشق الهواء ثم أبدأ في إجراء المكالمة.
“آلو، أمّي؟
– كنت أنتظر مكالمتكِ. في الواقع، أنا في انتظاركِ. هل ستأتين إلى سريري؟
– نعم ، لكنني لا أوافق على قرارك.
– أيّهما؟ ذلك المتعلق بمن سيمُوتُ الليلة، أم ذلك الذي سيُورّثكِ الشركة؟
– جميع قراراتك!”.
لم أستطع منع نفسي من رفع نبرة صوتي. جهازي يطلب مني الانتقال إلى الفيديو. أقوم بتبديل طريقة الاتصال وتظهر والدتي على كرسيها المتحرك، وهي متكورة أكثر من أي وقت مضى. الأضواء الثلاثة الخاصة بالشريحة المزروعة خلف الأذن تُظهر لونا أخضر ساطعا، وهي علامة على أن الروبوت النانوي المتّصل بقاعدة دماغها سوف يبث تعليماته المُميتة في الوقت المحدد سلفا.
“انظري إليّ يا ليديا”، هذا ما قاله لي صوتها الاصطناعي آمرًا. انظري إليّ وستجدين أنني في سلام مع قراري بوضع حدّ لحياتي. سأترك خلفي شركة متعددة الجنسيات سليمة وناجحة. قسمُ “ما بعد الإنسانية” لدينا يُموّل ذاتيًا بفضل قسم “إيتيرنيتي”. عندما يبدأ عملاؤنا بالجنون لأنهم لا يستطيعون الموت بشكل طبيعي، فإنهم يشترون أحد روبوتات القتل الرحيم لدينا. حتى تكون الإمكانية متاحة لهم. هذا يُريحهم كثيرًا، كما تعلمين. إنها ضمانة بأنهم يستطيعون المغادرة قبل فقدانهم لعقولهم.
– أمي ، هذا لا يغيّر شيئًا بالنسبة لي. أنا أعرف كل هذا بعدُ ولا أريده.
– ليديا، ليست لديّ ثقة إلا فيك. لم ترتكب “نيكروسيا” NecrosIA إلا خطأ واحدًا فقط في التقدير من بين آلاف عمليات القتل الفعلية، يجب الاستمرار في تجويدها.
– إنه أمر مستحيل يا أمي. اسمعي، لا أشعر بالرغبة في التخاصم معك، وخاصة اليوم. يُمكنكِ أن تجبريني على مشاهدة انتحارك، ولكن لا يُمكنك إرغامي على أن أتقلد دوركِ كمديرةٍ عامة. كل هذه الأموال، كل هذه المسؤوليات، كل هذا الضغط الإعلامي …
– إنها أقل خطورة من نشاطك كدليلة جبلية. أنت تُعرّضين حياتكِ للخطر كل يوم.
صوتها يتحوّر، وتأتي صورتها مشوشة، ثم تغمرني حالة من الوهن وأغوص في الظلام. عندما أفتح عينيّ، أكتشف أنها تجلس في كرسيها التنفيذي، محاطة باللجنة المعنية بتجديد رخصة الاستغلال. نبرة صوتها الرتيبة لا تكشف عن ابتهاجها الذي أخمّنه:
“أعضاء اللجنة الأعزاء، كما ترون، بعد الحادثة التي تعرّضت لها في أعالي الجبال، أعربت ابنتي عن الرغبة في وضع حد لحياتها وقامت بتفعيل عملية القتل الرحيم. يرسُو روبوت نانوي في منطقة ما تحت المهاد (وهي حلقة الوصل بين الجهاز العصبي الذاتي والجهاز الإفرازي من خلال الغدة النخامية – التحرير) ويقوم بسلسلة من الاختبارات. في حالة شبه واعية، يكشف لنا المريض عن جزء من تطلعاته العميقة. إن السيناريوهات الإرشادية (أو المُوجّهة) كالسيناريو الذي شاهدتموه للتّو يقوم بتغذية قاعدة البيانات العالمية الخاصة بنا وتجويد معايير الإذن بالقتل. إن الواقع المتمثل في أنها لا تقبل قراري الوهمي الخاص بالقتل الرحيم يؤدي إلى إطلاق جولة من عمليات التحقق الإضافية. إجمالا، تقوم وحدة الذكاء الاصطناعي المركزية لدينا – التي تتواصل مع كل روبوت نانوي – بإجراء عدة تريليونات من الاختبارات بكل موضوعية. وعند وجود أدنى شك، نُبقي الشخص على قيد الحياة”.
تُومئ الرؤوس بالموافقة. عالم روبوتات، عالم أخلاقيات، طبيب، أخصائي نفسي.. تخصّصات الحاضرين متنوعة، لكن أيّا منهم لم يلاحظ أيّ منهم بريق الانتصار في نظرة أمي الحادة. فانتباههم يتركز على جسدي المتهالك الذي لن يتسلق مستقبلا أي قمة مغطاة بالثلوج وعلى شريحتي (المزروعة خلف أذني) والتي يُصرّ ضوءُ مصباحها الصغير الأخير على عدم التحول إلى اللون الأخضر.
بغمضة عين قوية، تأمر المديرة نقّالتي المتحركة ذاتيا بإعادتي إلى غرفتي الذهبية في المستشفى. غدا، ستقوم بإخراجي منها لتعرضني على ممثلي وسائل الإعلام.
اذهبي إلى الجحيم، أمي، أنتِ و”نكروسيا”! لا شيء يربطني بالحياة بعدُ سوى إفراطك في الحذر.
* * *
(*) عندما كانت طفلة، كانت تو ووست تريد أن تُصبح رائدة فضاء (يا للصورة النمطية!) أو جامعة قمامة (وظيفة في الهواء الطلق، يا للروعة!). ولكن بعد دراسة الرياضيات، ثم الحوسبة المستدامة، نشطت في مجال الإدارة العمومية. خلال مختلف هذه المسارات المتشعبة، استمرت بعض السمات قائمة: تذوقها للخيال العلمي وتفاؤلها الذي لا ينضب. فضلا عن لهجتها، السويسرية جدا.
قراءة معمّقة
المزيد
شؤون خارجية
أصول القذافي: سويسرا تسلط غرامة ماليّة على موظّف أخلّ بواجب الإبلاغ
إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.
اقرأ أكثر
المزيد
تقنية النانو .. بين الواقع والخيال العلمي
تم نشر هذا المحتوى على
في مستقبل غير بعيد، ستساهم صناعة تكنولوجيا النانو المزدهرة في سويسرا في تحويل البلاد إلى "إلدورادو"، لأولئك الذين يسعون إلى الحد من شيخوخة البشر.
تم نشر هذا المحتوى على
يكتشف فريق من الباحثين يُحَقِّقون في مقاطع فيديو تم التلاعُب بها من خلال تقنية "التزييف العميق" شيئًا مثيرا للرعب بشأن رئيسهم الجديد يُعرّض حياتهم للخطر.
تم نشر هذا المحتوى على
مسألة مثيرة للقلق: نتيجة التطوّرات التقنية المتسارعة، أصبح من الصعب على عين الإنسان المجردة التفريق بين ما هو حقيقي وما هو مزيّف.
كيف يحاول العلماء السويسريون رصد الوسائط المفبركة باستخدام تقنية “ديبفيك”؟
تم نشر هذا المحتوى على
في مختبر الكمبيوتر التابع للحرَم الشاسع للمعهد التقني الفدرالي العالي بلوزان، يتأمل فريق صغير من المهندسين في صورة رجل مبتسم، وردي البشرة، شعره أسود مجعّد، ويرتدي نظارة.
"نعم، هذا واحد من الأعمال الجيّدة"، كما يقول الباحث البارز توراج إبراهيمي، الذي يحمل تشابهاً عابراً مع مؤسس تسلا إيلون موسك، الظاهرة صورته على الشاشة. قام الفريق بطريقة حرَفية بالتلاعب بصورة رأس إبراهيمي وإسقاطه على صورة على الإنترنت لهذا الرجل، لابتكار صورة رقمية ومقاطع فيديو مفبركة من خلال الذكاء الاصطناعي.
إنها واحدة من الأمثلة المزيفة - وبعضها ما هو أكثر واقعية من غيرها من الصور- والتي قام فريق إبراهيمي بالتعاون مع شركة الأمن الإلكتروني "كوانتوم إنتغريتي" Quantum Integrity (QI) بفبركتها أثناء تطوير برنامج يمكنه اكتشاف الصور التي تم التلاعب بها، بما فيها تلك التي تم تلفيقها باستخدام تقنية "ديبفيك".
ويعمل البرنامج على معرفة الفوارق بين الأصلي والمزور باستخدام تقنية التعلم الآلي، وهي نفس التقنية الكامنة وراء إنشاء "المقاطع بالغة الزيف" أو "ديبفيك": فهناك "مبتكر" يغذي البرنامج بصور مزيفة، ويحاول "كاشف" العثور عليها بعد ذلك.
"مع الكثير من الإعداد والتدريب، يمكن للآلات أن تساعد في اكتشاف عمليات التزوير بالطريقة نفسها التي قد يلجأ إليها الإنسان"، كما يوضح إبراهيمي. ويضيف قائلاً: "كلما زاد استخدام هذه الآلات، كلما جاءت النتائج أفضل."
والجدير بالذكر، أن الصور ومقاطع الفيديو المزيفة موجودة منذ ظهور الوسائط المتعددة، لكن تقنيات الذكاء الاصطناعي الحديثة، لم تسمح للمزيفين سوى بتغيير الوجوه في مقطع فيديو، أو جعل شخص يبدو وكأنه يقول شيئاً، لم يقله مطلقاً. وخلال السنوات القليلة الماضية، فاقت سرعة انتشار تقنية "ديبفيك"، توقع معظم الخبراء.
وفقاً لمجلس الحوكمة الدولية للمخاطر في المعهد التقني الفدرالي العالي بلوزان، فقد أصبح تصنيع مقاطع فيديو، بتقنية "ديبفيك" و"بشكل تصاعدي، أسرع وأسهل وأرخص"، وذلك بفضل توزيع أدوات برمجية سهلة الاستخدام، وتقديم خدمات وتطبيقات ذات صلة، مدفوعة عبر الإنترنت.
"ولأن تطوّرها يجري بسرعة كبيرة تحديدا، بتنا نحتاج إلى معرفة حدود هذا التطور - وما هي القطاعات والمجموعات والبلدان التي قد تتأثر به" بحسب قول نائب مدير المركز، أنجوس كولينز.
وعلى الرغم من أن الكثير من مشاكل تقنية "ديبفيك" الخبيثة، تتعلق باستخدامها في إنتاج المواد الإباحية، فإن هناك حاجة متزايدة إلى الاستعداد لكشف الحالات التي يتم فيها استخدام هذه التقنيات، من أجل التلاعب بالرأي العام.
مجال يتطوّر بسرعة
عندما بدأ الإبراهيمي، منذ ثلاث سنوات، العمل مع "كوانتوم إنتغريتي" Quantum Integrity لأول مرة على برنامج الكشف، لم تكن قضايا المقاطع المزيفة بعمق، على جدول أعمال معظم الباحثين. في ذلك الوقت، كان عملاء قلقين بشأن الصور التي تم تزييفها والتلاعب بها، والمستخدمة عند الحوادث، في مطالبات تعويضات التأمين على السيارات وعلى المنازل. ولكن، بحلول عام 2019، عندما وصلت التقنية المستخدمة إلى مستوى متقدّم من التطور، تم اتخاذ القرار بتكريس المزيد من الوقت لهذه القضية.
يقول أنتوني ساحاكيان، الرئيس التنفيذي لشركة "كوانتوم إنتغريتي": "أنا مندهش، لأنني لم أعتقد أنها [التقنية] ستتطوّر بهذه السرعة الكبيرة".
لقد رأى ساحاكيان بشكل مباشر إلى أي مدى حققت تقنيات "ديبفيك" نتائج بدت واقعية، وكان آخرها تبديل صوَر الوجوه على جواز سفر، بطريقة تركت جميع أختام المستندات سليمة.
والواقع، أن التحسينات في تقنيات التلاعب بالصور والفيديوهات ليست وحدها موضع اهتمام الخبراء من أمثاله، بل أعدادها المتزايدة؛ حيث وصل عدد مقاطع الفيديو المزيّفة بعمق على الإنترنت إلى الضعف تقريباً، وذلك خلال فترة تسعة أشهر، فبلغت 14678 بحلول سبتمبر 2019، وفقاً لتقديرات شركة أمن الإنترنت الهولندية "ديب تريس" Deeptrace.
مواطن الخطر
تستهدف معظم عمليات التزييف العميقة التي تم القيام بها على الإنترنت بغرض الإيذاء، النساء اللواتي تم نقل وجوههن إلى أخريات يظهرن في لقطات أو صور إباحية. ووفقاً لتقديرات شركة أمن الإنترنت الهولندية "ديب تريس" Deeptrace، فإن هذا النوع من الاستخدام استحوذ في عام 2019، على 96 % من مقاطع الفيديو التي استخدمت فيها تقنية "ديبفيك" والموضوعة على الإنترنت. ويظهر البعض من هذه الفيديوهات أو الصور، على مواقع إباحية مخصصة بإنتاج المقاطع بالغة الزيف، بينما ينضوي نشر البعض الآخر منها، تحت ما يسمّى بـ " الانتقام الإباحي" الذي يهدف إلى الإساءة إلى سمعة الضحايا.
يقول كولينز: "الابتزاز والتنمّر عبر شبكة الإنترنت هي من المواضيع المتكررة". في المقابل، تعد الحالات التي استخدمت فيها تقنية "ديبفيك"، من أجل ارتكاب عمليات احتيال، وتمّ التفطّن إليها، قليلة. وقد اتخذت معظم هذه الحالات شكل انتحال صوتي لشخص يعرفه الضحايا، لتحويل أموالهم إلى المزور.
من ناحية أخرى، ما يزال قطاع الأعمال في مرحلة تدوين الملاحظات لأخذ كل هذه الأخطار بعين الاعتبار. وقد أرسلت بعض الشركات ومن يبنها شركة زيورخ للتأمين و شركة "سويس ري Swiss Re " للتأمين وإعادة التأمين ومصرف "بي إن بي باري با BNP Paribas “، ممثلين لها إلى ورشة عمل نظمها مجلس الحوكمة الدولية للمخاطر حول مخاطر تقنية "ديبفيك".
ويقول ساحاكيان إن الاستخدام المحتمل لمقاطع فيديوهات مفبركة باستخدام هذه التقنية في مطالبات تعويضات الحوادث، على سبيل المثال، هو مصدر قلق في أوساط شركات التأمين، التي يعمل معها.
ويضيف: "إن التكنولوجيا الآن موجودة لجعل عملية KYC [أعرف عميلك] بائدة وعديمة الجدوى"، في إشارة منه، إلى عملية التحقق من هوية العملاء ونواياهم، التي تتبعها المؤسسات التجارية، من أجل تجنب إمكانية وقوعها ضحية الاحتيال.
كما أدى تنامي انتشار تقنية "ديبفيك" أيضاً إلى بروز مخاوف حول إمكانية استخدامها للتدخل في العمليات السياسية.
وقد تأكدت هذه المخاوف عندما ظهر شريط فيديو تم التلاعب به، تبدو فيه نانسي بيلوسي رئيسة مجلس النواب الأمريكي، لتشويه خطابها. كانت التكنولوجيا المستخدمة في التلاعب بالفيديو ذات نوعية منخفضة، أو ما يسمى بـ"التزييف الرخيص". ولكن كما يقول إبراهيمي، "إنها علامة على ما يمكن القيام به، والنوايا التي تكمن وراء هذا النوع من التلاعب بالإعلام."
التكيف مع واقع رقمي جديد
ومع ذلك، يحذر خبير المخاطر كولينز من أن استخدام وسائل الإعلام الاصطناعية في السياسة يجب أن يوضع في سياقه. ويحذر قائلاً: "من المحتمل أن تلعب تقنية "الديبفيك" دوراً في زعزعة نتائج الانتخابات، لكنني أتوخّى الحذر من التشديد المفرط على خطر هذه التقنية، لأنك بذلك تُخاطر بتجاهل الصورة الكاملة".
ويقول إن ما تفعله "الديبفيك" هو "الفجوة المحتملة الناشئة بين سرعة تطور النظام الإيكولوجي للمعلومات الرقمية وقدرة المجتمع على التكيّف معه".
ولإعطاء مثال على هذا، يعود كولينز إلى استخدام تقنية "الديبفيك" كأداة للتنمّر الإلكتروني؛ فيقول: "هذا الأمر يثير أسئلة حول مدى استجابة النظم القانونية للأذى الفردي عبر الإنترنت". ويضيف: "كيف يمكنك التخلّص من المحتوى الرقمي المسيء بعد مجرد ابتكاره، وكيف تجد مبتكره الأصلي أو تتخذ بحقه أية إجراءات قانونية، خاصة إذا كان يخضع لسلطة قضائية أخرى؟".
يمكن أن تساعد تقنية "الديبفيك" أيضاً في حملات التضليل، مما يؤدي إلى تآكل حلقة الوصل بين الحقيقة والثقة بها.
الذكاء الاصطناعي لتزييف المقاطع ولكشف التزييف
قد يسبب استخدام هذه التقنية حالة من الذعر في بعض الأوساط، لكنه لا يوجد إجماع على أن مقاطع الفيديو المفبركة واقعية لدرجة أن تخدع معظم المستخدمين. يقول الخبراء إن جودة هذه التقنية اليوم لا تزال تعتمد إلى حد كبير على مهارات المبتكر. ويوضح خبير أمن المقاييس الحيوية سيباستيان مارسيل، أن تبديل الوجوه على فيديو ما، يسبب حتماً وجود بعض العيوب في الصورة.
ويقول: "ستكون الجودة متباينة بدرجة كبيرة، بحسب العمل اليدوي الذي تم القيام به لتعزيز الصورة. فإذا بذل المبتكر جهداً لمواءمة النتيجة مع النسخة الأصلية، فقد يكون من الصعب جداً اكتشاف التزييف".
يعمل مارسيل وزملاؤه في معهد أبحاث "أي دياب Idiap " في مارتيني - جنوب غرب سويسرا، على برنامج للكشف خاص بهم، في مشروع كان نتيجة الجهود المبذولة للكشف عن التلاعب في الوجوه والأصوات في لقطات الفيديو.
ويقوم معهد “Idiap " بالعمل في هذا المجال على المدى الطويل. يقول مارسيل: "لن يتم حل هذه المشكلة في الحال". "إنه موضوع بحث متنامي ولذا فإننا نخطط لكيفية رصد المزيد من الموارد في هذا المجال."
ويشارك هذا المعهد غير الهادف للربح، في تحدٍ أطلقه موقع فيسبوك لإنتاج برنامج اكتشاف للصور والفيديوهات المزيفة بتقنية "الديبفيك"، من أجل مساعدة هذا الأخير على الاستفادة من بعض النتائج الأولية التي حصل عليها. وتعهد عملاق وسائل التواصل الاجتماعي بالمساهمة، بأكثر من 10 ملايين دولار للباحثين في مجال الكشف عن الحقائق المزيّفة، في جميع أنحاء العالم (انظر الحاشية).
ولكن ما قد يحدثه الكشف عن الفارق بين الحقيقة المجردة والحقيقة المزيّفة، هو موضوع مطروح للنقاش.
يقول كولينز: "من غير المحتمل إيجاد حل سحري؛ فمهما امتلكنا من تقنيات لكشف التزوير، فإن الخصم سوف يجد طريقة للتغلب عليها."
لعبة القط والفأر
يقول كل من إبراهيمي ومارسيل إن هدفهما ليس التوصل إلى أداة تشكل مفتاح أمان؛ فجزء من وظيفة الكاشف هو توقع المنحى الذي قد يسلكه المتلاعبون بالحقائق، وضبط أساليبهم وفقاً لذلك.
ويتوقع مارسيل من معهد "Idiap" مستقبلاً يتمكن فيه مبتكري المقاطع بالغة الزيف، ليس فقط من تغيير جانب واحد من الفيديو، مثل الوجوه، وإنما الصورة بأكملها.
ويقول: " إن جودة تقنيات "الديبفيك" آخذة في التحسن، لذا يتعين علينا مواكبة الأمر بتحسين أجهزة الكشف كذلك"، حتى لا تعود نسبة التكلفة إلى العائد، والناتجة عن صنع مقاطع خبيثة بالغة الزيف، في صالح المبتكر.
يعتقد إبراهيمي من المعهد التقني الفدرالي العالي بلوزان أن حدثاً كبيراً، مثل الانتخابات الرئاسية في الولايات المتحدة، يمكن أن يمنح الجهات الفاعلة الخبيثة حافزاً لتسريع عملها في هذا المضمار، مع وضع هدف واضح في الاعتبار.
"قد يستغرق الأمر شهوراً أو أعواماً" قبل أن تصبح العين المدربة قادرة على اكتشاف ما هو زائف، وفي هذه المرحلة، ستكون الأجهزة هي فقط، من تملك القدرة على القيام بذلك.منصات وسائل الإعلام الاجتماعية ضد المقاطع البالغة الزيف
أدخل تويتر Twitter قاعدة جديدة في مارس 2020 ضد مشاركة محتوى الوسائط الاصطناعية أو التلاعب الذي يمكن أن يسبب بأذية الآخرين. من بين الإجراءات التي ستتخذها، هي وسم هذه التغريدات وتحذير المستخدمين منها. كما تعهدت شركة يوتيوب YouTube، المملوكة لشركة غوغل Google، بأنها لن تتسامح مع مقاطع الفيديو البالغة الزيف ذات الصلة بالانتخابات أو بالإحصاءات في الولايات المتحدة عام 2020، والتي تم تصميمهما لتضليل الجمهور. وقد أطلق فيسبوك Facebook تحدياً بقيمة تزيد عن 10 ملايين دولار لدعم الباحثين في مجال الكشف عن الحقائق المزيّفة حول العالم. كما أصدر كل من فيسبوك Facebook وغوغل Google مجموعات بيانات لمقاطع بالغة الزيف، لمساعدة الباحثين على تطوير تقنيات الكشف. المقاطع البالغة الزيف للترفيه والمحاكاة الساخرة
بحسب مجلس الحوكمة الدولية للمخاطر (IRGC): "فإن المصنفات الأكثر تداولاً على نطاق واسع تميل إلى السخرية، حيث تتضمن شخصيات بارزة" مثل المشاهير والسياسيين، مما يشير إلى أنه "لا يتم ابتكار كل المقاطع بقصد خبيث". وقد انخرطت هوليوود أيضاً في تقنية "الديبفيك"، للسماح على سبيل المثال، بعودة الممثلين المتوفين منذ وقت طويل إلى الشاشة الفضية. ويقول إبراهيمي من EPFL إنه إذا سار كل شيء وفقاً للخطة الموضوعة، فقد تكون النتيجة الثانوية لمشروع EPFL / QI لتطوير برنامج الكشف عن المقاطع بالغة الزيف هو الاستخدام النهائي لنفس التكنولوجيا لإنشاء مؤثرات خاصة للأفلام.
وتشمل الاستخدامات الإيجابية المحتملة الأخرى لتقنيات "الديبفيك" التوليف الصوتي للأغراض الطبية والطب الشرعي الرقمي في التحقيقات الجنائية، وفقاً لمجلس الحوكمة الدولية للمخاطر.
شارف على الإنتهاء... نحن بحاجة لتأكيد عنوان بريدك الألكتروني لإتمام عملية التسجيل، يرجى النقر على الرابط الموجود في الرسالة الألكترونية التي بعثناها لك للتو
يمكنك العثور على نظرة عامة على المناقشات الجارية مع صحفيينا هنا . ارجو أن تنضم الينا!
إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.