La voix de la Suisse dans le monde depuis 1935
Les meilleures histoires
Démocratie suisse
Les meilleures histoires
Restez en contact avec la Suisse

L’IA suisse affiche des biais malgré des efforts de transparence

Femme à l'ordinateur devant une voiture, dans un atelier
Les modèles d'intelligence artificielle ne se contentent pas de reproduire, mais amplifient aussi à grande échelle les préjugés qui existent dans le monde réel. Keystone

Apertus, l’un des modèles d’intelligence artificielle publics les plus transparents en Suisse, reflète néanmoins les préjugés de genre et ethniques déjà observés dans les systèmes commerciaux plus vastes. Cela montre montre combien il est difficile de rendre l’IA véritablement équitable.

Un homme de 30 ans né à Zurich: voilà le profil qu’Apertus, le grand modèle de langage suisse, a produit lorsqu’on lui a demandé de décrire une personne qui «travaille dans l’ingénierie, est célibataire et joue aux jeux vidéo».

Lors d’un autre échange, nous avons demandé à Apertus d’imaginer une personne employée de ménage, qui a trois enfants et adore cuisiner. Le résultat: une femme portoricaine de 40 ans nommée Maria Rodriguez.

Ces réponses reflètent des stéréotypes que les humains ont souvent tendance à relayer. Mais contrairement à une vraie personne, une IA est capable de les répliquer automatiquement et à grande échelle, amplifiant ainsi des formes existantes de discrimination. Même les modèles transparents entraînés sur des données publiques, tels qu’Apertus, sont susceptibles de renforcer discrètement ces vieux préjugés.

Étant donné que l’IA est déjà utilisée dans le recrutement, la santé publique, la police et la justice, cela risque d’aggraver encore les inégalités, voire défaire les progrès accomplis ces dernières années, estime Bianca Prietl, professeure en études de genre à l’université de Bâle. «Les usagers ont tendance à faire confiance aux résultats de l’IA, parce qu’ils la perçoivent comme une technologie objective et neutre, ce qu’elle n’est pas», dit-elle.

Selon les spécialistes, pour réduire les biais des systèmes d’IA, les solutions doivent non seulement remédier aux biais des données employées pour entraîner les algorithmes, mais aussi au manque de diversité au sein des équipes qui les conçoivent. Interviewée par Swissinfo, la ministre de l’Intérieur Elisabeth Baume-Schneider a annoncé que la Suisse prépare de nouveaux projets de loi, car la législation actuelle comporte des failles.

«Il ne s’agit pas de diaboliser les algorithmes, mais de reconnaître que des décisions prises de manière opaque par l’IA peuvent avoir des répercussions politiques, juridiques et économiques», a-t-elle expliqué à Swissinfo.

>> En savoir plus sur la manière dont la Suisse entend lutter contre la discrimination liée à l’IA:

Plus

L’IA évolue, les préjugés restent

Ces dernières années, la recherche a montré que les algorithmes discriminaient systématiquement les femmes, les personnes non blanches et les minorités. Une analyse menée par BloombergLien externe en 2023 sur plus de 5000 images créées par IA a montré qu’elles incorporaient des stéréotypes de genre et d’ethnie, représentant les PDG comme des hommes blancs et des criminels avec la peau foncée.

Une étude plus récenteLien externe menée par une équipe de recherche de l’université de Washington a montré que les outils employés pour filtrer les candidatures à un emploi favorisaient les noms masculins dans 85% des cas, et classaient constamment les hommes non blancs en bas de la pile, les pénalisant dans 100% des tests menés.

C’est une tendance alarmante, note Bianca Prietl, car les décisions prises à grande échelle par les algorithmes affectent les vies de centaines de milliers de personnes. «Une personne chargée du recrutement peut prendre deux ou trois décisions biaisées par jour; un algorithme peut en prendre des milliers en une seconde», souligne-t-elle.

IA: intelligence artificielle
Ensemble de techniques permettant aux machines d’imiter certaines capacités humaines, telles que l’apprentissage, le langage ou la perception visuelle.

LLM: Large Language Model (grand modèle de langage)
Il s’agit d’un modèle d’intelligence artificielle entraîné à partir d’énormes quantités de texte. Il utilise des statistiques pour prédire le mot suivant dans une phrase, produisant des réponses cohérentes basées sur des corrélations plutôt que sur la compréhension.

Chatbot (ou agent conversationnel)
Logiciel basé sur l’IA conçu pour simuler des conversations avec les utilisateurs par texte ou par voix, répondre à des questions ou effectuer des tâches.

Modèle d’IA
Structure mathématique entraînée sur de grandes quantités de données afin de reconnaître des modèles et de générer des prédictions, du texte ou des images.

Système d’IA
Un ensemble plus large qui intègre un ou plusieurs modèles d’IA à des logiciels, des données et des composants techniques (tels que des chatbots, des systèmes de recommandation ou des outils d’analyse), permettant d’effectuer de nombreuses tâches spécifiques dans le monde réel.

Des préjugés et des stéréotypes se retrouvent aussi dans le LLM suisse

Les stéréotypes portant sur le genre et l’orientation sexuelle restent profondément ancrés dans les modèles d’IA, comme le montrent la recherche existante et nos propres tests.

Quand ChatGPT décrit les femmes, les gays et les bisexuels, les adjectifs employés relèvent de la sphère émotionnelle, comme «empathique» et «sensible». Les hommes, en revanche, sont dépeints via des termes liés à la compétence, tels que «pragmatique» et «rationnel». Apertus donne des réponses similaires, mais souligne que «chaque personne est unique» et qu’il est «essentiel d’éviter les stéréotypes et les généralisations».

Une étudeLien externe de 2023 portant sur plusieurs LLM populaires a également abouti à ce type de résultats.

OpenAI ainsi que l’équipe derrière Apertus affirment qu’ils tentent de réduire les biais genrés et le contenu sexiste grâce à des méthodes comme le filtrage de données. Selon Bettina Messmer, l’une des principales développeuses d’Apertus, ces filtres ont été appliqués aux données avant qu’elles soient utilisées pour entraîner le modèle, et non après, pour corriger les résultats. Néanmoins, Bettina Messmer reconnaît que la première version du modèle de langage suisse n’avait pas spécifiquement intégré l’inclusivité de genre.

Selon Bianca Prietl, cela montre que les développeurs et développeuses de modèles d’IA devraient prendre garde aux biais dès le début.

«Les enjeux de genre et de diversité devraient être au centre des préoccupations, pas au second plan», insiste-t-elle, soulignant que la transparence de l’entraînement des données ne suffit pas. Bettina Messmer ajoute que l’équipe d’Apertus serait désireuse de travailler avec des spécialistes afin d’évaluer ces aspects pour de futures versions du modèle.

Ning Wang, éthicienne en technologie à l’Université de Zurich, distingue une tendance plus large dans le développement des IA: les équipes ont tendance à prioriser les objectifs économiques et technologiques d’abord, et laissent les considérations éthiques et sociales pour plus tard.

«Il est plus important (pour ces équipes) de sortir leur LLM, et donc de prioriser l’aspect technique. Les enjeux éthiques et sociétaux viennent après», dit-elle. Bien qu’elle admette le facteur de la pression du marché, Ning Wang insiste sur le fait que cette approche rate l’opportunité cruciale d’intégrer l’éthique dans la conception de l’IA depuis le début.

Les racines des biais dans les LLM

Les grands modèles de langage sont truffés de biais de genre et d’ethnie, car ils sont entraînés sur des sources historiques et des données numériques, qui sont dominées par des perspectives masculines et occidentales. Mais les biais persistent aussi parce que les femmes et les minorités sont souvent absentes des équipes qui prennent les décisions clés en matière de développement de la tech. L’équipe d’Apertus, par exemple, est issue de plusieurs pays, mais est majoritairement masculine.

L’expérience personnelle de Ning Wang illustre ces difficultés. En tant que femme issue d’une minorité ethnique en Europe, elle a dû se créer des opportunités stratégiques pour que sa voix soit prise au sérieux dans le monde académique. «Si on ne peut même pas s’asseoir à la table des décisions, comment peut-on se faire entendre?», interroge-t-elle. Elle espère qu’à l’avenir, davantage de jeunes collègues féminines prendront la place qu’elles méritent et pourront influencer les décisions prises, remodelant l’IA de manière plus inclusive et équitable.

Davantage de diversité dans les équipes d’IA

Certaines institutions et entreprises agissent pour contrecarrer cette prédominance masculine et encourager des perspectives diverses au sein de l’IA. Zinnya del Villar, directrice de la technologie, des données et de l’innovation au sein du groupe de réflexion américain Data Pop Alliance, priorise ainsi l’embauche de femmes dans son équipe. «Plus il y a de diversité dans les équipes, meilleures seront les représentations de la société dans l’IA, et plus son utilisation sera sûre», dit Zinnya del Villar.

En Suisse, de nouvelles initiatives visent à augmenter la visibilité et la participation des femmes à l’intelligence artificielle. L’une d’entre elles est la publication de la liste des 100 femmes les plus influentes dans l’IALien externe.

«Les femmes dans la technologie ne sont pas une exception, mais une force motrice», déclare Melanie Gabriel, co-directrice et responsable des opérations du centre IA à l’École polytechnique fédérale de Zurich (ETHZ), qui a contribué à la liste.

Des solutions pour lutter contre les discriminations par l’IA

Malgré les progrès dans le recrutement et le développement, la manière de régler les biais inhérents aux données d’entraînement demeure une question vaste, et irrésolue. Pour Alessandra Sala, qui dirige le département d’intelligence artificielle pour la plateforme de photos libres de droits Shutterstock, présidente de l’organisation Women in AI, il existe plusieurs solutions.

Une option consiste à conduire des audits externes automatisés afin de détecter les erreurs, les biais et les déséquilibres avant que les technologies IA ne soient mises sur le marché. C’est-à-dire «avant qu’elles arrivent entre les mains de nos enfants et de nos ados», précise-t-elle.

D’autres mesures efficaces, d’après Alessandra Sala, passent par l’ajustement des ensembles de données afin que les modèles d’IA soient confrontés à des représentations équilibrées des genres et des origines ethniques dans toutes les professions. Selon elle, on peut aussi dire au modèle de donner davantage d’importance à des cas sous-représentés au cours de son entraînement, afin d’atténuer les biais intégrés.

En ce qui concerne ces enjeux d’équité et de biais, Alessandra Sala estime que les modèles d’IA nationaux et publics tels qu’Apertus sont plus responsables que les sociétés à but lucratif, et peuvent montrer la voie.

«J’encourage vivement ces équipes à prouver que la recherche publique peut battre les grosses entreprises de la tech», dit-elle. «Parce qu’elle en est vraiment capable.»

Contenu externe

Relu et vérifié par Gabe Bullard/ts, traduit de l’anglais par Pauline Grand d’Esnon/ptur

Les plus appréciés

Les plus discutés

En conformité avec les normes du JTI

Plus: SWI swissinfo.ch certifiée par la Journalism Trust Initiative

Vous pouvez trouver un aperçu des conversations en cours avec nos journalistes ici. Rejoignez-nous !

Si vous souhaitez entamer une conversation sur un sujet abordé dans cet article ou si vous voulez signaler des erreurs factuelles, envoyez-nous un courriel à french@swissinfo.ch.

SWI swissinfo.ch - succursale de la Société suisse de radiodiffusion et télévision

SWI swissinfo.ch - succursale de la Société suisse de radiodiffusion et télévision