The Swiss voice in the world since 1935

تجربة سويسرية مثيرة … الذكاء الاصطناعي يضلل البشر

الأبحاث الاجتماعية
فشلت الدراسة المتعلّقة بالأخبار الكاذبة على موقع "ريديت" (Reddit)، في إبلاغ المشاركين مسبقًا Keystone-SDA

أبرزت دراسة مثيرة للجدل عن الأخبار الزائفة، أجراها باحثون وباحثات من سويسرا على منصّة التواصل الاجتماعي "ريديت" Reddit، المسؤوليات الأخلاقية والتحديات التي تواجه إجراء أبحاث تتعلّق بالمجتمع.

قام فريق البحث، الذي ارتبط اسمه بجامعة زيورخ، باختبار سري لقدرة الذكاء الاصطناعي (IA ) على التلاعب بالرأي العام، من خلال نشر معلومات مضلّلة على مجموعة فرعية بمنصّة ريديت (Reddit).

على مدى أشهر عديدة، تجاوز الفريق البحثي  الحدود الأخلاقية في رصد السلوك الاجتماعي، واستخدم النماذج اللغوية الكبيرة (LLMs) لتوليد آراء حول مواضيع مختلفة؛ بدءًا من تربية الكلاب الخطيرة، وصولًا إلى ارتفاع تكاليف الإسكان، بالإضافة إلى القضايا المتعلّقة بالشرق الأوسط، ومبادرات التنوّع.

المزيد

واختبأت روبوتات الذكاء الاصطناعي خلف أسماء مستعارة وهميّة، وكانت تطرح موضوعات للنقاش بوثيرة مكثّفة في أحد المنتديات الفرعيّة على منصّة ريديت (subreddit r/changemyview). وقدّم أعضاء المجموعة حججًا مؤيّدة للآراء التي أنتجها الذكاء الاصطناعي أو معارضة لها، من دون إدراك أنّهم.هن جزء من مشروع بحثي، إلى أن اعترف فريق البحث بذلك بعد إكمال الدراسة.  

   + ذكاء الاصطناعي لا يحل مشاكلنا الأساسية

أثار الكشف عن الموضوع موجة انتقاد واسعة على موقع ريديت، وفي المجتمع البحثي، ووسائل الإعلام الدولية.  

في البداية، برّر فريق البحث، الذي يفضّل عدم الكشف عن هويّة أعضائه تجنّبًا لأيّ أعمال انتقامية، أفعاله من خلال التأكيد على أنّ “أهمية هذا الموضوع الكبيرة على المستوى الاجتماعي، تتطلّب إجراء دراسة من هذا النوع، حتّى وإن كانت تتعارض مع قوانين المنصّة”، التي تحظر استخدام روبوتات الذكاء الاصطناعي.

وفي وقت لاحق، قدّم الفريق “اعتذارًا قويا ومفعما بالأحاسيس”، وجاء في بيان الاعتذار “أدّت ردود فعل المجتمع، التي اتّسمت بخيبة الأمل والإحباط، إلى شعورنا بالندم على الإزعاج الذي تسببت فيه هذه الدراسة”.

” سوء استخدام العلم: سلوك غير أخلاقي”

وقالت الأستاذة الجامعية دومينيك سبرومونت، رئيسة اللجنة المعنية بأخلاقيات البحث العلمي في كانتون فو بسويسرا: “لا تقتصر المشكلة هنا على إجراء بحث ينطوي على تضليل وخداع، بل تتعلّق بخرق قواعد مجتمع من البشر الذين يبنون الثقة في شبكتهم.ن على أساس تلك القواعد”. 

وتتابع سبرومونت قائلة: “بالإضافة إلى ذلك، تثير جودة المشروع العلمية الكثير من الشكوك. فسوء استخدام العلم، سلوك غير أخلاقي”.

وقد واجه الفريق السويسري مشكلة تُعتبر شائعة بين الكثير من الباحثين والباحثات، تتمثّل في كمية المعلومات التي تُحجب عن الجهات المشاركة، لإضفاء مزيد من الواقعية على الدراسة.

وكذلك، واجه بحث سابق حول الأخبار الكاذبة المعضلة ذاتها، وفقًا لجيليان مورفي وسيارا م. غرين، من جامعة كورك وجامعة دبلين في إيرلندا، بعد إجراء أبحاثهما الخاصّة حول الأخبار المضلّلة، وتحليل نتائج دراسات أخرى.

وفي بعض الحالات، يخفي الباحثون والباحثات في البداية الغرض الدقيق من الدراسة، فلا يعلم المشتركون والمشتركات بذلك إلّا عند استكمالها، وفقًا لما كُتب في مقالة نُشرت في مجلّة “سيانس ديركت” (Sciencedirect) عام 2023. وعلى سبيل المثال، يمكن الإشارة منذ البداية إلى أنّ البحث يدور حول استهلاك الأخبار بشكل عام، وليس حول الأخبار الكاذبة على وجه التحديد.

+ الذكاء الاصطناعي الأخلاقي: هل يمكن لسويسرا أن تتقدّم الصفوف؟

حدود الخداع  

رأى بعض الباحثين والباحثات أنّه “في ما يتعلّق ببعض الدراسات عن المعلومات المضلّلة، يصبح من الصعب دراسة ردود فعل المشاركين بشكل طبيعي حيال هذه المعلومات، دون الاعتماد على هذا النوع من الخداع؛ إذ قد تتغيّر شكوكهم، ودوافعهم، وسلوكياتهم، عندما يدركون أنّ المعلومات المعروضة قد تكون مضلّلة”. 

لكن يشير هؤلاء الباحثون والباحثات أيضًا إلى أنّ هناك حدودًا للخداع. ويتحمّل الباحثون مسؤولية أخلاقية تتطلّب احترام حقوق الإنسان، وخصوصية المشاركين.ات في الدراسة. فينبغي عليهم إبلاغهم.ن  بشكل واضح منذ البداية، عن مشاركتهم في البحث، والحصول على موافقتهم الصريحة لاستخدام بياناتهم، بالإضافة إلى اتّخاذ إجراءات لتجنّب إلحاق الضرر بأيّ شخص.  

ويقدّم هذا الفيديو شرحًا لبعض الوسائل التي تمكّن الباحثين والباحثات من إجراء هذا النوع من الأبحاث، وفقًا للمعايير الأخلاقية.  

المسؤولية غير واضحة  

وقد تعرضت الدراسة السويسرية للشجب حول الأخبار الكاذبة على موقع ريديت، بعد أن أخفقت في إبلاغ الأشخاص مسبقًا بالمشاركة في مشروع بحثي.    

كما أثارت الدراسة التباسا بشأن الجهة المسؤولة. فقد صمّم هذا المشروع باحث في جامعة زيورخ، وعرضه في شهر أبريل من العام الماضي على اللجنة المعنية بالأخلاقيات في كلية الفنون والعلوم الاجتماعية، من بين أربعة اختبارات، وهو المشروع الوحيد الذي كان ينطوي على مشاركة روبوتات الذكاء الاصطناعي.  

وفي ذلك الوقت، رفضت الهيئة المعنية بالأخلاقيات دراسة “ريديت” واعتبرتها ” تحدّيًا استثنائيًا”، وفقًا للجامعة. وأوصت الهيئة فريق البحث بوجوب إبلاغ المشاركين والمشاركات ” قدر المستطاع”، والالتزام التامّ بقواعد موقع “ريديت”.  

المزيد

نقاش
يدير/ تدير الحوار: سارة إبراهيم

الذكاء الاصطناعي وتطبيقاته: نعمة أم نقمة؟

أصبحت الحواسيب قادرة بشكل متزايد على تنفيذ المهام التي تتطلب ذكاءً بشريًا وعلى اتخاذ القرارات نيابةً عنا. هل يجب أن نسمح لهم بذلك؟

3 إعجاب
69 تعليق
عرض المناقشة

ولكن تشير الجامعة في هذا الإطار إلى أنّ الباحث الرئيسي غادر الجامعة في شهر سبتمبر، وبدأ البحث بعد المغادرة، مضيفة أنّ المسؤولية المتعلّقة بالمشروع والنشر، تقع بالتالي على عاتق فريق البحث، وليس على الجامعة.  

وتضيف: “لم تسجّل مشاركة أيّ فريق بحث، أو طلاب وطالبات (من جامعة زيورخ)، في مشروع “ريديت” خلال فترة تنفيذه”.  

 ونُشرت النتائج الأوّلية لفريق البحث في البداية، ولكن أُزيلت لاحقًا من موقع الإنترنت. 

 + أين تقف سويسرا من تنظيم الذكاء الاصطناعي؟

عملية مراجعة أكثر صرامة   

ومن جانب آخر، لم تفتح مفوّضة حماية البيانات في زوريخ، دومينكا بلونسكي، تحقيقًا رسميًا في هذا الشأن حتى الآن، ولكن يتابع مكتبها الجدل المثار عن كثب. وقالت لموقع سويس إنفو (SWI swissinfo.ch): “لا نعلم ما إذا كان البحث قد أُجري من جانب جامعة زيورخ أو إحدى كلّياتها، أو بمبادرة خاصّة من فريق بحث مؤلَّف من أفراد”.   

ويتوجّب على بلونسكي في البداية تحديد ما إذا كان يتعيّن توجيه التحقيق إلى الجامعة، أو إلى الأفراد المعنيين. ولكن تشعر بقلق إزاء ورود أدلّة في تقارير وسائل إعلامية تشير إلى احتمال حصول انتهاكات لقوانين حماية البيانات؛ لاسيّما تلك المتعلّقة بالتصنيف الظاهري لمستخدمي تطبيق “ريديت”. 

ويتعيّن على الجامعة أيضًا التعامل مع “مطالب قانونية رسمية” غير محدّدة من تطبيق “ريديت”، وإجراء تحقيق داخلي في الحادثة.    

وقالت متحدّثة باسم الجامعة: “في ضوء هذه الأحداث، تعتزم اللجنة المعنية بالأخلاقيات في كلية الفنون والعلوم الاجتماعية، القيام بعمليات مراجعة أكثر صرامة في المستقبل، وبشكل خاص، التنسيق مع المجتمعات الموجودة على المنصّات قبل إجراء دراسات تجريبية”.   

  

ترجمة: ناتالي سعادة

مراجعة: عبد الحفيظ العبدلي

التدقيق اللغوي: لمياء الواد

قراءة معمّقة

الأكثر مناقشة

متوافق مع معايير الصحافة الموثوقة

المزيد: SWI swissinfo.ch تحصل على الاعتماد من طرف "مبادرة الثقة في الصحافة"

يمكنك العثور على نظرة عامة على المناقشات الجارية مع صحفيينا هنا . ارجو أن تنضم الينا!

إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.

SWI swissinfo.ch - إحدى الوحدات التابعة لهيئة الاذاعة والتلفزيون السويسرية

SWI swissinfo.ch - إحدى الوحدات التابعة لهيئة الاذاعة والتلفزيون السويسرية