Navigation

Qu’advient-il lorsque Google joue avec l’éthique?

Jeff Dean, co-fondateur de Google Brain et Senior Fellow chez Google AI, présente l'initiative «AI for Social Good» de Google en octobre 2018. Keystone / Elijah Nouvelage

Les géants du numérique - notamment Google - n’auraient pas tout à fait conscience du pouvoir qu’ils confèrent à leurs outils dotés d’intelligence artificielle (IA), selon plusieurs chercheurs en Suisse.

Ce contenu a été publié le 29 mars 2021 - 16:35

La récente mise à pied d’une experte en éthique de Google relance le débat sur la prise en compte par les GAFAM d’un code moral dans le domaine de l’IA.  

«Les algorithmes avec lesquels nous travaillons relèvent d’abord de l’intérêt public, non d’affinités personnelles», a twitté El Mahdi El Mhamdi, unique employé de Google Brain en Europe à traiter d’IA avec les spécialistes au sein de la maison-mère. Il réagissait au licenciement en décembre de la manageuse Timnit Gebru. Composé de chercheurs de Google, le projet de recherche Google Brain vise à dupliquer les fonctionnalités du cerveau humain.

Or Timnit Gebru fait précisément partie des plus grands spécialistes au monde autour des questions d’éthique de l’IA. Dans un articleLien externe rédigé avec d’autres experts, elle a alerté sur les dangers des modèles de langages, l’essence même du moteur de recherche Google et son fonds de commerce.

Timnit Gebru, «championne» d’une IA éthique  

Née à Addis-Abeba, en Éthiopie, de parents érythréens, Timnit Gebru est arrivée à l’âge de 15 ans aux États-Unis, fuyant la guerre entre l’Éthiopie et l’Érythrée. Admise à l’Université de Stanford, elle y a obtenu un doctorat en vision par ordinateur au Stanford Artificial Intelligence Laboratory. Sa thèse sur l’usage à grande échelle d’images publiques aux fins d’analyses sociologiques a eu un certain retentissement. Jusqu’à occuper les colonnes de médias importants comme le New York Times ou The Economist. Son travail a surtout été reconnu après la publication de recherches révolutionnaires prouvant le taux d’inexactitude et de discrimination envers les femmes et personnes de couleur avec l’usage de systèmes de reconnaissance faciale. En 2018, alors qu’elle travaillait pour Microsoft Research, Google l’avait repéré pour qu’elle puisse venir y constituer une équipe d’éthique dans le domaine de l’IA.

End of insertion

Elle soutient que ces modèles analysent d’énormes quantités de textes sur Internet, en provenance surtout du monde occidental. Un risque accru de dérapage langagier de type raciste, sexiste ou offensant pourrait de ce fait dénaturer les données de Google reproduites par le système. Google a insisté pour faire retirer l’article. Mais face au refus de son auteure, Google l’a licenciée.

Contenu externe

Le risque d’une évolution non contrôlée des systèmes d’Intelligence artificielle a été corroboré par d’autres chercheurs. Il s’agirait même «d’un secret de polichinelle», estime Alexandros Kalousis, professeur en sciences appliquées à la Haute École spécialisée de Suisse occidentale et expert dans l’exploration de données. «L’IA est partout et progresse à un rythme effréné. Néanmoins, les développeurs de modèles et d’instruments dotés d’IA n’ont pas vraiment conscience de l’impact que ces derniers peuvent avoir en situation réelle», prévient-il. «Les conséquences ne sont visibles qu’après coup, voire jamais».

Contenu externe

Mais à l’aune du départ de Timnit Gebru, tout porte à croire que ces lanceurs d’alerte ne sont pas forcément écoutés par les entreprises qui les emploient.

«Timnit Gebru a été engagée par Google pour s’occuper d’éthique dans le domaine de l’IA, puis congédiée pour cette même raison. Voilà qui situe bien à quel point cette compagnie se soucie de ces questions », explique pour sa part Anna Jobin, spécialiste en éthique des nouvelles technologies et chercheuse à l’Institut Humboldt à Berlin. «Si une experte de son importance est traitée de la sorte, comment Google pourrait-il devenir plus éthique», s’interroge-t-elle.

Essorage de l’éthique

Dans un monde technologique encore dominé par des hommes blancs, Timnit Gebru, une trentenaire originaire d’Éthiopie,  incarne une nouvelle génération. Avec Margaret Mitchell, une collègue aussi licenciée en février, elles ont créé dans l’entreprise une équipe multiculturelle afin de promouvoir chez Google un développement éthique et inclusif des systèmes d’IA.

La relation compliquée de Google avec l’éthique

Après avoir compilé dans un guide ses principes éthiques en lien avec l’Intelligence artificielle, Google a instauré en 2019 une structure au sein de l’entreprise chargée de superviser le développement des systèmes d’IA, structure appelée Advanced Technology External Advisory Council (ATEAC).

Sur le blog de Google, son vice-président pour les affaires internationales, Kent Walker, en avait alors précisé les contours : « Une structure qui examine, en vertu de nos principes, quelques-uns des défis les plus importants posés à Google en matière de reconnaissance faciale ou d’équité en termes d’automatisation, dans le but de nous offrir davantage de perspectives. Nous sommes impatients d’aborder ces questions avec les membres de l’ATEAC ».

Malgré ces promesses, la structure a été suspendue deux semaines après son lancement à la suite du tollé suscité par la nomination au conseil d’administration de deux membres controversés, l’un étant plutôt conservateur ayant défendu des positions anti-trans, anti-LGBTQ et anti-migrants.

End of insertion

Anna Jobin craint que si ce genre d’équipes et leurs travaux ne sont pas réhabilités, «l’éthique IA pourrait devenir une force contraire à l'éthique». De la cosmétique pour masquer une soif de business entrant en conflit avec des principes moraux. Comme dans le cas du «green washing», où les entreprises vantent leurs politiques environnementales mais ne les appliquent pas, on pourrait parler d’ «ethics washing», c'est-à-dire de poudre aux yeux éthique, estime-t-elle.

Ingénieur en logiciels et lui-même employé de Google à Zurich pendant 13 ans, Burak Emir s’est penché, après le licenciement de Timnit Gebru, sur les objectifs réels de l’entreprise en matière de recherches sur l’éthique.  

«A quoi sert un département d’éthique si la critique ne peut s’exprimer?», se demande-t-il. «Si le but est de ne publier que des recherches positives, ne faudrait-il pas alors s’abstenir de les présenter comme une avancée dans les connaissances. Nous avons surtout besoin de davantage de transparence».  

A l’œuvre notamment en Suisse, nombre de scientifiques ont aussi exprimé leur solidarité avec Timnit Gebru. C’est à Zurich qu’a pris racine le plus grand centre de recherche de Google hors des États-Unis, orienté autour de l’automatisation et de l’IA. En compagnie de plus de 2600 employés du groupe, Burak Emir a signé une pétition en faveur de Mme GebruLien externe, en questionnant Google sur son approche de l’éthique de l’IA.  

L’habit ne fait pas le moine

Le groupe nie avoir «censuré» Timnit Gebru. Contacté par SWI swissinfo.ch, le bureau de presse de Google Suisse nous a renvoyés aux précédentes déclarations des dirigeants de la société. Dans l’une d’elles, Jeff Dean, responsable de l’IA chez Google, avait indiqué que les recherches cosignées par Mme Gebru ne répondaient pas aux critères de publication. De plus, elle n’aurait pas été licenciée, mais aurait elle-même démissionné, ce qu’elle conteste.

Contenu externe
Contenu externe

Cosignataire de cette pétition de soutien et chercheuse à l’Université de Saint-Gall, Roberta Fischli observe que la réputation de Google a souffert au sein de la communauté d’experts en éthique et intelligence artificielle. Mais ce risque-là existait dès le début en raison de conflits d’intérêts inévitables, lorsque de telles recherches s’intéressent aux pratiques en place dans une entreprise.  

«En théorie, la plupart de ces sociétés ne rechignent pas à avoir un regard critique. Mais en pratique, ces conflits surviennent, même par inadvertance, dès que c’est l’employeur lui-même qui est critiqué». Et Roberta Fischli de constater aussi que les scientifiques désirant aujourd’hui mener des travaux révolutionnaires en matière d’éthique et d’IA n’ont souvent pas d’autre choix que d’être engagés par de grands groupes privés aux ressources importantes pour financer les travaux. «On s’expose quand on commence à comprendre certains mécanismes tout en voulant changer les choses depuis l’intérieur».

Le limogeage de Timnit Gebru n’a pas empêché le géant du Web de poursuivre ses affaires sans être contrarié. Mais les choses bougent. En janvier dernier aux États-Unis, des employés de Google ont décidé de fonder le premier syndicat au monde opérant au cœur d’une des plus grandes multinationales de la high-tech, l’Alphabet Workers UnionLien externe. Menées par des employés de Google, des antennes ont vu le jour dans une dizaine d’autres pays, dont la Grande-Bretagne et la Suisse, créant ainsi une alliance syndicale mondiale.

Secret de polichinelle

L’influence qu’exercent les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) dépasse largement les confins de leurs bureaux. Leurs actions et leurs planifications imprègnent directement le programme mondial de la recherche universitaire. «Difficile de citer des recherches académiques qui ne sont pas liées ou financées par ce type de sociétés», résume Alexandros Kalousis.

Tenant compte de cette influence, il est aujourd’hui crucial, selon lui, d’entendre des voix indépendantes qui soulignent les dangers inhérents à une exploitation sans contrôle des données par les géants de l’économie numérique.

«Il s’agit-là d’un gros problème de notre société», explique-t-il. De telles discussions sur les notions d’éthique pourraient sinon virer à la distraction.

Le secteur de la recherche peut-il être aussi indépendant et objectif qu’il le souhaiterait sans tenir compte des risques liés au large déploiement des technologies de l’Intelligence artificielle? Pas vraiment, semble-t-il. Ce champ-là dépasse Google. Il concerne chaque entreprise développant des systèmes basés sur l’IA qui ne s’imposerait ni règles ni limites. C’est la preuve aussi, selon M. Kalousis, que la technologie dicte ce qui est acceptable éthiquement de ce qui ne l’est pas. De quoi façonner également nos vies et nos façons de penser.

Contenu externe
Partager cet article

Joignez-vous à la discussion

Avec un compte SWI, vous avez la possibilité de faire des commentaires sur notre site web et l'application SWI plus.

Connectez-vous ou inscrivez-vous ici.