The Swiss voice in the world since 1935
أهم الأخبار
أهم الأخبار
النشرة الإخبارية
أهم الأخبار
نقاشات
أهم الأخبار
النشرة الإخبارية

بين الحقيقة والابتزاز: معضلة أدوات الكشف عن محتويات الذكاء الاصطناعي

afp_tickers

في ظلّ انتشار المعلومات المضلّلة المولّدة بالذكاء الاصطناعي على شبكات التواصل الاجتماعي، تبرز أدوات للكشف عن التضليل الإعلامي، لكنّها قد تكون مخادعة بدورها وهدفها أحيانا مجرّد ابتزاز المال، ما يزيد الطين بلّة.

وينبّه باحثون من خطر استخدام هذه الأدوات المريبة بسوء نيّة لتشويه سمعة جهات معيّنة والمساس بمصداقية محتويات أصلية.

وأحصى صحافيون من وكالة فرانس برس متخصّصون في الاستقصاء الرقمي ثلاث أدوات من شأنها أن تكشف إلى أيّ مدى تأثّر نصّ ما بالذكاء الاصطناعي.

وخلصت هذه الأدوات التي جرّبت بأربع لغات مختلفة إلى نتائج خاطئة مفادها أن بعض النصوص هي ثمرة الذكاء الاصطناعي، مع محاولة ابتزاز المال من مستخدميها.

وعلى سبيل المثال، قامت “جاست دان ايه آي” (JustDone AI) بتحليل مقال عن الحرب في الشرق الأوسط من إعداد صحافيين وخلصت إلى أن محتواه مولّد بالذكاء الاصطناعي بنسبة “80 %”. واقترحت إعادة صياغته لإزالة آثار هذه التقنية.

وأشارت الصفحة إلى “إضفاء طابع بشري على النصّ المولّد بالذكاء الاصطناعي” قبل الإحالة إلى “نصّ أصلي بنسبة 100 %” لا يُكشَف عنه إلا بعد تسديد مبلغ قد يصل إلى 9,99 دولارات.

وأنتجت أداتان أخريان، هما “تيكست غارد” (TextGuard) و”ريفاينلي” (Refinely) بدورهما نتائج خاطئة مع محاولة كسب المال.

وتواصل صحافيو وكالة فرانس برس مع مطوّري التطبيقات الثلاثة.

– أدوات “احتيال” –

وأفاد الفريق التقني في “تيكست غارد” بأن “نظامنا يعمل بواسطة نماذج حديثة للذكاء الاصطناعي وتعدّ النتائج التي يقدّمها موثوقة في إطار تكنولوجيتنا”.

وأضاف “لا يمكننا لا ضمان النتائج ولا مقارنتها بتلك الصادرة عن أنظمة أخرى”.

وأشارت مجموعة “جاست دان” من جانبها إلى أنه “ما من كاشف للذكاء الاصطناعي يمكنه ضمان دقّة بنسبة 100 %”.

وأقرّت بأن نسختها المجانية “قد تعطي نتائج أقلّ دقّة” بسبب “الطلب الكبير واستخدام نظام مخفّف سريع النفاذ”.

وجرّبت وكالة فرانس برس الأدوات مع عدّة نصوص بشرية المصدر، بالهولندية واليونانية والمجرية والإنكليزية. وصُنّفت كلّ المحتويات في خانة الذكاء الاصطناعي، بما في ذلك مقتطفات أدبية مجرية كلاسيكية تعود للعام 1916.

وبدا أن “جاست دان” و”ريفاينلي” قادرتان على العمل حتّى بدون نفاذ إلى الإنترنت، ما يدفع إلى الظنّ أن النتائج الصادرة عنهما قد تكون آتية من نصّ معدّ مسبقا أكثر مما هي ثمرة تحليل تقني معمّق.

وتقول ديبورا فيبر-فولف الأكاديمية المقيمة في ألمانيا التي أجرت أبحاثا عن أدوات الكشف هذه “ليست أدوات كشف بل احتيال بحجّة إضفاء طابع بشري”، مشيرة إلى أنها تقدّم بدائل عبثية.

– “المساس بالمصداقية” –

وقد تستغلّ هذه الأدوات للمساس بالمصداقية.

ففي المجر مثلا، قال مؤثّرون موالون للحكومة في مطلع العام إن مستندا أعدّته المعارضة في إطار حملة انتخابية كان بالكامل ثمرة الذكاء الاصطناعي.

وبغية تدعيم أقوالهم، نشروا على شبكات التواصل الاجتماعي لقطات شاشة فيها خلاصات “جاست دان”.

وتهدف الأدوات التي جرّبتها وكالة فرانس برس خصوصا إلى جذب طلّاب أو باحثين يريدون إخفاء آثار استخدامهم للذكاء الاصطناعي. وقالت شركتان تعملان في هذا المجال إن المستخدمين هم من جامعات عريقة، مثل كورنيل في شمال شرق الولايات المتحدة.

وأكّدت الجامعة من جهتها لوكالة فرانس برس “عدم وجود أيّ علاقة رسمية مع الشركات التي توفّر أدوات كشف عن الذكاء الاصطناعي”، مستبعدة أن تقدّم هذه الأدوات “حلّا فعليا” لسوء استخدام هذه التكنولوجيات.

وقد يلجأ المدقّقون في صحّة الأخبار، بمن فيهم المتعاونون مع وكالة فرانس برس، إلى أدوات كشف قائمة على الذكاء الاصطناعي للتحقّق من الصور وعمليات التلاعب. لكنها تُستخدم بالإضافة إلى أدوات أخرى تكميلية ولا يسلّم بنتائجها على نحو قاطع.

بورز-اس/م ن/لين

قراءة معمّقة

الأكثر مناقشة

SWI swissinfo.ch - إحدى الوحدات التابعة لهيئة الاذاعة والتلفزيون السويسرية

SWI swissinfo.ch - إحدى الوحدات التابعة لهيئة الاذاعة والتلفزيون السويسرية