مُستجدّات ورُؤى سويسريّة بعشر لغات
الآلة والأخلاق.. تحديات الذكاء الاصطناعي

الذكاء الاصطناعي الأخلاقي: هل يُمكن لسويسرا أن تتقدم الصفوف؟

الذكاء الإصطناعي
Getty Images/istockphoto / Peshkova

يسلط النقاش المتعلق بتتبع جهات الاتصال، الضوء على الحاجة الملحة إلى معالجة التكنولوجيات غير المقننة مثل الذكاء الاصطناعي (AI). ولأن سويسرا متميّزة بديمقراطيتها القوية وسمعتها المعروفة في إجراء أبحاث من الدرجة الأولى، فهي تمتلك القدرة على أن تكون في طليعة الدول لرسم معالم الذكاء الاصطناعي الأخلاقي.

ما هو الذكاء الاصطناعي؟ ذات مرة، قال العالم البارز، ستيفن هوكينغ، الذي توفي في عام 2018: “الذكاء الاصطناعي هو إما أفضل شيء أو أسوأ شيء على الإطلاق يحدث للبشرية” .

في نهاية عام 2018، قدمت مجموعة خبراء أنشأتها المفوضية الأوروبية مسودة لمبادئ توجيهية أخلاقيةرابط خارجي، يمكنها أن تميّز الذكاء الاصطناعي الجدير بالثقة، ولكن حتى الآن لا توجد استراتيجية عالمية متفق عليها لتحديد المبادئ المشتركة، والتي قد تشمل قواعد الشفافية وحماية الخصوصية والإنصاف والعدل.

وبفضل ميزاتها الفريدة – من ديمقراطية قوية ومواقف حيادية وأبحاث ذات مستوى عالمي – تتمتع سويسرا بمكانة مرموقة تمكّنها من القيام بدور الريادة في صياغة مستقبل الذكاء الاصطناعي الذي يلتزم بالمعايير الأخلاقية. وتشارك الحكومة السويسرية في المناقشات ذات الصلة، على المستوى الدولي، آخذة في عين الاعتبار، أهمية الذكاء الاصطناعي في دفع البلاد إلى الأمام.

لا يوجد تعريف موحّد معترف به للذكاء الاصطناعي. وغالباً ما يتم تقسيمه إلى فئتين، الذكاء الاصطناعي العام (AGI) الذي يسعى لتكرار السلوك البشري على نحو وثيق، والذكاء الاصطناعي المحدود الذي يركز على المهام الفردية، مثل التعرف على الوجوه، والقيام بالترجمات الآلية واقتراح توصيات المحتوى، مثل مقاطع الفيديو على يوتيوب.

وعلى كل حال، فعلى الصعيد المحلي، بدأ النقاش المتعلّق بالذكاء الاصطناعي الأخلاقي للتو، ولكن بشكل جاد، حيث تواجه سويسرا والدول الأخرى مخاوف تتعلق بالخصوصية المحيطة باللجوء إلى تقنيات جديدة، مثل تطبيقات تتبع جهات الاتصال لوقف انتشار كوفيد -19، سواء كانت هذه التقنيات تستخدم الذكاء الاصطناعي أم لا. 

وقد دعت المبادرة الأوروبية – مبادرة “تتبع القرب والحفاظ على الخصوصية في عموم أوروبا” (يُشار إليها اختصارا بـ PEPP-PT)- إلى اعتماد نهج مركزي للبيانات، مما أثار الهواجس بشأن الشفافية والحوكمة. ولكن هذا النظام المركزي، لم يكمل طريقه إلى التنفيذ، بعد أن مال قرار عدد من الدول، بما في ذلك سويسرا، لصالح نظام لامركزي ولتعزيز الخصوصية، يسمى “بروتوكول دي بي -3 تي” DP-3T (تتبع القرب والحفاظ على الخصوصية اللامركزية). أما نهاية مبادرة “تتبع القرب والحفاظ على الخصوصية في عموم أوروبا”، فكانت عندما قررت ألمانيا هي أيضاً، عدم العمل بها.

يقول جيم لاروس، عميد كلية علوم الكمبيوتر والاتصالات (IC) التابعة للمعهد التقني الفدرالي العالي في لوزان والعضو في المجموعة التي قامت منذ البداية بجهود “دي بي -3 تي” في المعهد: “انخرطت أوروبا في نقاشات حثيثة وحيوية حول مزايا كل من النهج المركزي والنهج اللامركزي في اقتفاء أثر القرب. وكانت هذه النقاشات مفيدة للغاية حيث جعلت عدداً كبيراً من السكان على دراية بهذه القضايا، وأظهرت المستوى العالي من القلق الذي تثيره حول كيفية تصميم هذه التطبيقات وإنشائها. لن يقوم الناس باستخدام تطبيق تتبع جهات الاتصال إلا إذا كان لديهم شعور راسخ بأنه ليس عليهم التضحية بخصوصايتهم مقابل الخروج من عزلتهم” .

ووفقًا لاستطلاع رأي أجرى حديثاً، أعرب ما يقرب من ثلثي المواطنين السويسريين عن تأييدهم استخدام تطبيقات تتبع وتحديد مكان المصابين بفيروس كورونا للمساعدة في السيطرة على انتشار العدوى. ويتم حاليا استخدام تطبيق DP-3T على أساس تجريبي، في انتظار تحديد الشروط القانونية اللازمة لاستخدامه على نطاق واسع، كما قرر البرلمان ذلك. مع ذلك، يُسلّط النقاش الدائر بهذا الشأن الضوء على الحاجة الملحة للإجابة على الأسئلة المحيطة بالأخلاقيات وإدارة التقنيات غير المنظمة.

+ اقرأ المزيد عن التطبيق السويسري المثير للجدل

 “الطريقة السويسرية”

تم إدراج الذكاء الاصطناعي لأول مرة في استراتيجية الحكومة السويسرية من أجل تهيئة الظروف المناسبة لتسريع عملية التحول الرقمي للمجتمع.

في ديسمبر 2019، سلم فريق عمل تقريره إلى الحكومة الفدرالية بعنوان “تحديات الذكاء الاصطناعي”. وذكر التقرير أن سويسرا مستعدة لاستغلال إمكانات الذكاء الاصطناعي، لكن المؤلفين قرروا عدم إبراز القضايا الأخلاقية والبعد الاجتماعي للذكاء الاصطناعي، وركزوا بدلاً من ذلك على شرح حالات استخدام الذكاء الاصطناعي المختلفة والتحديات الناجمة عن ذلك.

ويصرّح دانيال إيغلوف، رئيس الابتكار في أمانة الدولة السويسرية للتعليم والبحث والابتكار لـ swissinfo.ch قائلاً: “في سويسرا، لا تفرض الحكومة المركزية رؤية أخلاقية شاملة للذكاء الاصطناعي، لأن هذه الأخيرة ستكون غير متوافقة مع تقاليدنا الديمقراطية إذا فرضتها الحكومة من القمة إلى القاعدة”. ويضيف أنه من الصعب تحديد المبادئ الأخلاقية المطلقة لأنها يمكن أن تتغير من سياق تكنولوجي إلى آخر، ويوضح قائلاً: “ثمة رؤية أخلاقية للذكاء الاصطناعي بدأت تتبلور في المشاورات بين أصحاب المصلحة الوطنيين والدوليين، بما في ذلك الجمهور. كما وأن الحكومة تقوم بدور نشط في هذا النقاش”.

وفي سياق أوسع، تصر الحكومة على أنها منخرطة بشكل كبير على المستوى الدولي عندما يتعلق الأمر بالمناقشات حول الأخلاق وحقوق الإنسان. ويقول السفير توماس شنايدر، مدير الشؤون الدولية في المكتب الفدرالي للاتصالات لـ swissinfo.ch إن سويسرا في هذا المضمار “هي واحدة من أكثر الدول نشاطاً في مجلس أوروبا وفي الأمم المتحدة والمحافل الأخرى”، مضيفاً أن طموح المكتب الفدرالي للاتصالات ووزارة الخارجية هو تحويل جنيف إلى مركز عالمي لحوكمة التكنولوجيا.

هل هي مجرد كلمة رنّانة أخرى؟

كيف يمكن إذن تحديد ما هو أخلاقي أو غير أخلاقي عندما يتعلق الأمر بالتكنولوجيا؟ وفقًا لباسكال كوفمان، عالم الأعصاب وباعث مؤسسة “مايند فاير” Mindfire للذكاء الاصطناعي المتمحور حول الإنسان، فإن مفهوم الأخلاق المطبق على الذكاء الاصطناعي هو مجرد كلمة رنّانة أخرى: “هناك الكثير من الالتباس حول معنى الذكاء الاصطناعي. ما يسميه الكثيرون “الذكاء الاصطناعي” لا علاقة له كثيراً بالذكاء ولا علاقة له أكثر بالقوة العمياء للحوسبة. لهذا السبب، من غير المنطقي التحدث عن الذكاء الاصطناعي الأخلاقي”. ويضيف: ” لكي أكون أخلاقياً، أقترح الإسراع في إنشاء ذكاء اصطناعي يكون في خدمة الناس بدلاً من خدمة الحكومات الاستبدادية أو عامة شركات التكنولوجيا. إن استنباط سياسات أخلاقية في هذا المضمار، لن يجدي نفعا ولن يساعدنا في إنشاء الذكاء الاصطناعي”.

أما آنا جوبين، وهي باحثة في مرحلة ما بعد الدكتوراه في مختبر الأخلاقيات والسياسات الصحية في المعهد التقني الفدرالي العالي في زيورخ، فلديها وجهة نظر أخرى. وبناءً على بحثها، تعتقد آنا أن الاعتبارات الأخلاقية يجب أن تكون جزءاً من تطور الذكاء الاصطناعي: “لا يمكننا التعامل مع الذكاء الاصطناعي على أنه عمل تكنولوجي بحت ومن ثمّ إضافة بعض الأخلاقيات عليه عند الانتهاء منه، وإنما يجب تضمين الجوانب الأخلاقية والاجتماعية في المناقشة منذ بداية العمل”. ونظراً لأن تأثير الذكاء الاصطناعي على حياتنا اليومية لن ينحسر، ترى جوبين بأن هناك حاجة لإشراك المواطنين في المناقشات الدائرة حول التقنيات الجديدة التي تستخدم الذكاء الاصطناعي وأن القرارات المتعلقة باستخدام الذكاء الاصطناعي يجب أن يشارك في اتخاذها المجتمع المدني. ولكنها في الوقت نفسه تقر بمحدودية إدراج المبادئ الأخلاقية في ظل الافتقار إلى الحوكمة الأخلاقية.

من جهته، يرى لبيتر سيلي، أستاذ أخلاقيات العمل في جامعة سويسرا الناطقة بالإيطالية، أن مفتاح حل هذه القضايا هو وضع الأعمال والأخلاق والقانون على قدم المساواة. يقول سيلي “إن الشركات تجذبها اللوائح، وهي تحتاج إلى إطار قانوني للازدهار. إن القوانين الجيدة التي تنسق ما بين الأعمال والضوابط الأخلاقية تُنشئ البيئة المثالية لجميع الجهات الفاعلة. ويكمن التحدي الحقيقي في إيجاد توازن بين هذه الركائز الثلاث”.

التركيبة المثالية

وحتى لو كان النهج السويسري يعتمد بشكل أساسي على التنظيم الذاتي، يعتبر سيلي أن إنشاء إطار قانوني مرتبط بهذا المجال، من شأنه أن يشكل حافزاً كبيراً للاقتصاد والمجتمع.

وإذا كان على سويسرا أن تلعب دوراً رائداً في تحديد المعايير الأخلاقية، فإن نظامها السياسي القائم على الديمقراطية المباشرة والتعاونيات الخاضعة للرقابة الديمقراطية يمكن أن يلعب دوراً محورياً في إرساء الدعائم لدمقرطة الذكاء الاصطناعي والاقتصاد القائم على البيانات الشخصية. وكما اقترحت الأكاديمية السويسرية لعلوم الهندسة في ورقة عملها التي أقرتها في نهاية عام 2019، يمكن أن يكون النموذج المعتمد على غرار “ميداتا” MIDATA السويسرية، وهي تعاونية غير ربحية تضمن سيادة المواطنين على استخدام بياناتهم، وتعمل كوصي على جمع البيانات. ويمكن لمالكي حساب البيانات أن يصبحوا أعضاء في “ميداتا”، والمشاركة في الحكم الديمقراطي للجمعية التعاونية. كما يمكنهم أيضاً السماح بالوصول الانتقائي إلى بياناتهم الشخصية للدراسات السريرية وأغراض البحث الطبي. 

إن بزوغ نظام بيئي مفتوح للبيانات يعزز مشاركة المجتمع المدني، من شأنه زيادة الوعي بآثار استخدام البيانات الشخصية، وخاصة لأسباب صحية، كما هو الحال في تطبيق تتبع الاتصال. وحتى إذا اعتبرنا أن النظام اللامركزي المحبّذ، يقوم بشكل أفضل من النظام المركزي في الحفاظ على الحقوق الأساسية، فهناك مخاوف بشأن إمكانية حدوث هجمات قرصنة إلكترونية.

ويمكن أن يؤدي إنشاء أساس قانوني للذكاء الاصطناعي إلى تحفيز نقاش عام حول سلامة استخدام الأنظمة الرقمية، وضوابطها الأخلاقية. 

متوافق مع معايير الصحافة الموثوقة

المزيد: SWI swissinfo.ch تحصل على الاعتماد من طرف "مبادرة الثقة في الصحافة"

يمكنك العثور على نظرة عامة على المناقشات الجارية مع صحفيينا هنا . ارجو أن تنضم الينا!

إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.

SWI swissinfo.ch - إحدى الوحدات التابعة لهيئة الاذاعة والتلفزيون السويسرية

SWI swissinfo.ch - إحدى الوحدات التابعة لهيئة الاذاعة والتلفزيون السويسرية