Des perspectives suisses en 10 langues

La démocratie directe suisse s’effraie de la désinformation aux États-Unis 

Faux présentant la candidate aux présidentielles américaines comme un dictatrice communiste.
L’IA a permis plusieurs coups bas lors de la campagne présidentielle américaine : cette image deepkfake dépeint Kamala Harris comme une dictatrice communiste. X

À l’approche de la présidentielle, les États-Unis sont confrontés à une vague sans précédent de contenus factices générés par l’intelligence artificielle. Une démocratie directe comme la Suisse pourrait, elle aussi, en faire les frais, vulnérable aux mêmes tactiques de désinformation qui menacent électrices et électeurs partout sur la planète.

La campagne présidentielle américaine en fait voir de toutes les couleurs: cliché de Kamala Harris représentée en dictatrice lors d’une convention communiste, messages audio porté par la voix de Joe Biden demandant aux électeurs et électrices de ne pas aller voter, vidéo d’Elon Musk et Donald Trump à la cool qui dansent comme pas deux sur une musique des années septante. Il ne s’agit là que de quelques-uns des deepfakes – ces contenus factices générés par l’intelligence artificielle – circulant en ligne sur une plateforme sociale comme X (ex-Twitter).

Contenu externe

Le but est de produire de la désinformation et de manipuler l’opinion publique avec un maximum d’impact et sans guère d’efforts. Ce sont des millions de personnes qui ont visionné, «liké» et reposté ces deepfakes. La situation est si préoccupante aux États-Unis qu’au moins vingt ÉtatsLien externe ont adopté des réglementations contre les audios et vidéos truqués et que le Département de la sécurité nationale a mis en gardeLien externe contre les risques de l’IA pour la présidentielle. Récemment, la Californie a pour sa part entériné une des lois les plus sévèresLien externe du pays contre les deepfakes à caractère politique.

Malgré ces efforts législatifs, ni les États-Unis ni les autres grandes démocraties n’ont été épargnés par les images, vidéos et news truquées au cours d’une année électorale planétaire qui a vu un nombre record d’humains se rendre aux urnes – quatre milliards d’individus au bas mot.

Une démocratie directe comme la Suisse et la majorité des États américains – où les élus, mais aussi le peuple prennent les décisions importantes – seront les plus touchés par cette tendance, estime Touradj Ebrahimi, professeur à l’École polytechnique fédérale de Lausanne (EPFL) et spécialiste en matière de deepfakes.

«La Suisse est très vulnérable, sachant que si les gens reçoivent des informations erronées, ils prendront très certainement des décisions erronées», explique-t-il.

La progression de la désinformation générée par l’IA n’en est pas encore à son pic. À l’avenir, nous serons toujours plus souvent confrontés à des contenus «synthétiques» créés artificiellement, prévoit Touradj Ebrahimi. Et à mesure que la technologie gagnera en sophistication, il sera toujours plus difficile de distinguer le réel du fabriqué.

Plus

Discussion
Modéré par: Bruno Kaufmann

Comment lutter contre les «fake news» et la désinformation?

Comment reconnaître les «fake news» quand on y est confronté, et que faire pour en réduire l’impact?

51 J'aime
56 Commentaires
Voir la discussion

Les experts et expertes que nous avons consultés concordent sur trois principales raisons qui devraient inciter la démocratie suisse à ne pas sous-estimer les dangers de la désinformation alimentée par l’IA:

1. Moteurs de recherche et chatbot affichent des informations déformées et incorrectes

Organisations sans but lucratif et groupes de recherche ont déjà mis en garde contre les dangers et limites des logiciels et algorithmes d’IA pour la démocratie suisse. L’ONG suisse Algorithm Watch CH a analyséLien externe les réponses du chatbot de Microsoft intégré dans le moteur de recherche Bing, et ce, avant les élections fédérales d’octobre 2023. Un tiers de ses réponses relatives au scrutin contenaient des erreurs factuelles et l’IA est allée jusqu’à inventer des scandalesLien externe à certaines personnalités politiques. «Les chatbot d’IA générative intégrés dans les moteurs de recherche peuvent s’avérer fallacieux puisque les gens se fient aux informations obtenues au moyen de ces moteurs de recherche», explique Angela Müller, directrice d’Algorithm Watch CH.

Mais les moteurs de recherche sur le web eux-mêmes peuvent aussi tromper. Un livre blancLien externe publié par les universités de Berne et Zurich a montré que Google, le moteur de recherche le plus usité en Suisse, offre une visibilité inégale à certaines sources d’informations et points de vue plus ou moins critiques selon la langue de la requête (allemand, français ou italien). Avant la votation populaire de juin 2023 par exemple, les scientifiques ont constaté que Google privilégiait les informations venant de partis plus critiques à l’encontre de la loi dans ses réponses aux requêtes en allemand que pour celles en français ou en italien.

«Dans une démocratie multilingue déjà polarisée comme la Suisse, ces résultats doivent nous inquiéter», assure Mykola Makhortykh, l’un des auteurs du livre blanc. Ce dernier tire la sonnette d’alarme face au manque de transparence quant au fonctionnement des algorithmes de recherche et des logiciels d’intelligence artificielle. Il pointe aussi le fait que, malgré leurs promesses, les géants de la tech ne parviennent pas à développer des systèmes efficaces pour combattre fake news et polarisation.

2. La désinformation générée par l’IA rend moins fiable l’éventail médiatique 

Selon Mykola Makhortykh, les systèmes d’IA actuels permettent de créer et diffuser de la désinformation plus rapidement et plus simplement. Toujours plus de sites d’information imitent les médias traditionnels ou faisant autoritéLien externe tout en étant bourrés de contenus générés par l’IA, souvent incorrects et parfois entièrement inventés. Ce genre d’informations remplissent les pages des principales plateformes de médias sociaux, responsables de plus de 60% de la désinformation circulant en Suisse, selon un sondageLien externe de fög.

Contenu externe

Si une petite partie de la populationLien externe seulement lit les informations générées par l’intelligence artificielle, ces dernières peuvent s’avérer si bien fabriquées qu’il est difficile de les identifier et d’éviter les fakenews. Une récente enquête de l’OCDE a classé les Suisses parmi les moins aptes à distinguer les éléments de désinformation.

«Quand les news produites par les journalistes bien réels et par l’IA se ressemblent, il y a danger», affirme Karsten Donnay, professeur en comportements politiques et médias numériques à l’Université de Zurich. Les gens peuvent se sentir trompés et perdre foi dans le système médiatique pris globalement, ajoute le spécialiste.

Cet écosystème a déjà conduit la population helvétique à modifier sa manière de s’informer. Les derniers chiffres publiés par le Reuters Digital News ReportLien externe montrent que les sites d’actualités en ligne sont la principale source d’information du pays. Les canaux traditionnels et plus fiables que sont la télévision, la presse écrite ou la radio gardent de leur importance, mais significativement moins qu’en 2016.

Une des raisons à cela est que les gens sont bombardés d’informations et ressentent de la fatigue, selon le rapport. Résultat: les Suisses sont toujours moins intéressés par les informations. Une tendance qui s’observe à l’échelle de la planète. La Suisse toutefois est moins touchée que d’autres démocraties comme les États-Unis, où la population n’est pas loin d’un abandon des plateformes médiatiques traditionnelles.

Ce qui ne rend pas plus probable pour autant que la Suisse parvienne à minimiser les risques de l’IA. Karsten Donnay estime que les moteurs de recherche et les chatbots vont continuer à gagner du terrain en tant que sources d’information.

«Les gens vont de plus en plus les utiliser et nous ne savons pas où cela nous mènera», lance-t-il. Karsten Donnay assure toutefois qu’il n’est pas trop tard pour instaurer des mesures garantissant que les vecteurs d’information non journalistiques respectent eux aussi certains standards.

Des robots qui apprennent

Plus

La machine et la morale

Gros défis éthiques pour la Suisse, un des pays les plus avancés dans le domaine de l’intelligence artificielle.

lire plus La machine et la morale

3. Les technologies de l’IA générative sont incroyablement persuasives

Jusqu’ici, démontrer l’impact sur la population de la désinformation générée par l’IA tient du vœu pieux.

«Il ne s’agit pas d’un phénomène de masse. La désinformation circule au sein d’une niche», explique Fabrizio Gilardi, professeur d’analyse politique à l’Université de Zurich. La désinformation existe depuis toujours et les principales recherches démontrent que son influence est bien moindre qu’on ne le pense en général, selon le scientifique. «L’intelligence artificielle ne modifiera pas substantiellement cette situation.»

Des études indépendantesLien externe conduites en collaboration avec Meta (la maison-mère de Facebook) durant les élections présidentielles étasuniennes en 2020 ont indiqué que la désinformation circulant sur les médias sociaux n’avait pas eu d’effet significatif sur les attitudes et comportements des Américains ni qu’elle avait amplifié la polarisation.

Mais les choses pourraient changer avec l’arrivée des plateformes interactives d’intelligence artificielle du type ChatGPT. Une recherche réalisée aux États-Unis sur neuf cents personnes par l’École polytechnique fédérale de Lausanne (EPFL) a démontré que ChatGPT est très opérant s’agissant de façonner nos opinions.

«La capacité de persuasion des modèles d’intelligence artificielle générative est si élevée qu’ils pourraient influencer les élections», assure Francesco Salvi, l’un des auteurs de l’étude. Avec son équipe, il a montré que ChatGPT avait 82% plus de chances qu’un humain de faire changer d’avis une personne.

Dès lors qu’il est en possession d’informations personnelles sur un utilisateur, ChatGPT peut générer des messages personnalisés et persuasifs. Du jamais vu jusque-là, y compris dans des cas fameux de désinformation comme celui de Cambridge Analytica qui, en 2018, a utilisé illégalement les données personnelles de millions d’utilisateurs de Facebook pour les influencer politiquement.

«Nous sommes potentiellement confrontés à un épisode du type Cambridge Analytica puissance x. Et je suis convaincu que la chose est déjà en train de se produire», ne cache pas Francesco Salvi.

Contenu externe

Texte relu et vérifié par Benjamin von Wyl et Veronica De Vore, traduit de l’italien par Pierre-François Besson/op

Plus

Les plus appréciés

Les plus discutés

En conformité avec les normes du JTI

Plus: SWI swissinfo.ch certifiée par la Journalism Trust Initiative

Vous pouvez trouver un aperçu des conversations en cours avec nos journalistes ici. Rejoignez-nous !

Si vous souhaitez entamer une conversation sur un sujet abordé dans cet article ou si vous voulez signaler des erreurs factuelles, envoyez-nous un courriel à french@swissinfo.ch.

SWI swissinfo.ch - succursale de la Société suisse de radiodiffusion et télévision

SWI swissinfo.ch - succursale de la Société suisse de radiodiffusion et télévision