La voix de la Suisse dans le monde depuis 1935
Les meilleures histoires
Démocratie suisse
Les meilleures histoires
Restez en contact avec la Suisse

Derrière les prouesses de l’IA, l’exploitation de travailleurs invisibles

Ordinateur avec une image d'un chien
Pour que l'IA reconnaisse un chien, des milliers de photographies doivent être annotées manuellement RTS

Les facilités que permettent l'intelligence artificielle (IA) reposent largement sur le travail acharné de petites mains concentrées dans des pays à bas revenus. Une activité souvent mal rémunérée et qui expose certains travailleurs à des contenus toxiques. La RTS est allée à leur rencontre.

«Je suis un annotateur, je travaille sur leurs données, ils gagnent des millions. Pourquoi ne peuvent-ils pas veiller à ce que je vive décemment? Est-ce qu’ils doivent me sacrifier pour leur croissance?» Assis dans un vieux gratte-ciel de Nairobi, Michael Geoffrey pleure. L’homme a travaillé pendant des années comme annotateur dans le domaine de l’intelligence artificielle. Son métier consistait à entraîner des algorithmes pour que ceux-ci deviennent efficaces. Un système qui l’a broyé.

Loin des bureaux rutilants de la Silicon Valley, le Kenya figure parmi les hubs internationaux des tâches ingrates de l’intelligence artificielle. Des petites entreprises, mais aussi des géants comme Meta, ChatGPT, Tesla ou encore TikTok y délocalisent une part considérable de ce travail de l’ombre – des tâches essentielles au fonctionnement de l’IA générative de 2025.

Une intervention humaine «indispensable»

Parmi celles-ci, taguer des milliers d’images pour identifier, par exemple, les parties de la tête d’un chien: pointe de l’oreille droite, côté de l’oreille droite, bas de l’oreille droite… Ou alors analyser, image par image, tous les éléments filmés depuis un véhicule: voiture, arbre, piéton. Ou encore: enseigner à un robot chirurgical ce à quoi ressemblent des coupures et des points de sutures. Le principe est toujours le même: pour qu’une intelligence artificielle sache reconnaître un chat, il faut que des humains lui décrivent des milliers et des milliers de photos de chats.

Une logique qui s’applique également aux robots conversationnels de type ChatGPT. «Il y a plein d’humains payés pour poser de bonnes questions (prompts), à ChatGPT et il y en a d’autres qui écrivent les réponses à ces questions», explique à Lausanne, le professeur Robert West. Le spécialiste vient de terminer une année de recherche dans les laboratoires de Microsoft, aux Etats-Unis, une des matrices mondiales de l’intelligence artificielle générative.

Il précise: ce jeu de questions-réponses ne se fait pas en temps réel et ne concerne qu’une infime portion des possibles questions, mais l’étape est essentielle pour éduquer ces outils. «Sans intervention humaine, ce serait la catastrophe (…) Sur internet, il y a beaucoup de contenus qu’on ne veut pas que ChatGPT répète: de l’extrémisme, des théories du complot, etc. Il faut donc apprivoiser le modèle».

Contenu externe

Impact sur la vie privée

Le directeur du Data Science Lab de l’EPFL souligne l’importance considérable de ces contributions humaines, même si leur volume est un secret de fabrication bien gardé: «Si je devais faire une estimation, je dirais que les annotateurs et les rédacteurs de prompts investissent plus de temps que les ingénieurs et les programmeurs» dans ces outils.

Une activité pénible et souvent mal payée. Au Kenya, de nombreux annotateurs sont contraints de cumuler les emplois et d’aligner plus de 15 heures de labeur par jour. C’est ce qui est arrivé à Michael Geoffrey.

Pour subvenir aux besoins de sa famille, il cumule les mandats, et pas question de refuser le travail qui lui est proposé. Il se retrouve ainsi, des mois durant, à annoter du matériel pornographique huit heures par jour, en plus d’un autre travail à plein temps. «Regarder de la pornographie pendant huit heures, ce n’est vraiment pas de la rigolade. Après 4 ou 5 jours, mon corps s’est complétement éteint.» L’homme ne peut plus avoir de relations intimes avec son épouse, le couple sombre. «Cela a brisé la relation. Nous avons fini par nous séparer», confie-t-il dans l’émission «A Bon Entendeur» de la RTS.

Homme dans un bureau
Pour subvenir aux besoins de sa famille, Michael Geoffrey, s’est retrouvé à annoter du matériel pornographique huit heures par jour. RTS

Conditions de travail indignes

Sociologue au sein de la fondation Mozilla, Angela Chukunzira dénonce les conditions de travail indignes de nombreux annotateurs et des risques importants pour la santé mentale. «Quand les travailleurs sont exposés de manière permanente à des contenus très nocifs, ils deviennent insensibles. Certains d’entre eux perdent leur humanité. Et leur sens des réalités est aussi très altéré», analyse la chercheuse.

Les annotateurs ne sont pas les seuls exposés à ces contenus toxiques. En première ligne se trouve un autre groupe de travailleurs invisibles de l’IA: les modérateurs de contenus auxquels recourent les réseaux sociaux. Sur TikTok, 85% des contenus inappropriés sont par exemple filtrés par l’intelligence artificielle. Mais l’intervention humaine reste impérative pour corriger les erreurs de l’IA.

Employé par un sous-traitant du géant chinois à Nairobi, Ethan (prénom d’emprunt) traque des contenus inappropriés venus du monde entier. Au moins 250 vidéos par jour, parmi lesquelles des images extrêmement choquantes, publiées par les utilisateurs du réseau social.

«La plupart des vidéos TikTok qu’on regarde sont sélectionnées par l’intelligence artificielle. Mais l’IA n’est pas parfaite. Par exemple, elle ne peut pas faire la différence entre quelqu’un qui fume une cigarette et quelqu’un qui lèche une sucette». Un manque de fiabilité qui peut s’avérer dramatique selon la nature des contenus.

Screenshots
Sans l’entraînement humain, l’IA ne peut pas faire la différence entre quelqu’un qui fume une cigarette et quelqu’un qui lèche une sucette. RTS

«Les gens ne voient que ce qui est bien»

«Parce qu’il y a de tout dans les vidéos: des suicides, de la torture, des personnes brûlées vives, de la pédopornographie… Les gens voient normalement ce qui est bien, comme des gens en train de danser. Mais ils ne savent pas qu’il y a des gens comme moi qui filtrent les mauvais contenus, au prix de leur santé mentale», explique-t-il.

«Certaines vidéos, deux ou trois, vous hantent pour le reste de votre vie. Comme celle de ces trois types qui avaient des couteaux dans leurs mains et qui étaient en train de dépecer un gars vivant… vous voyez ? On regarde ce genre de choses.»

Difficile, pour ces travailleurs précaires, de défendre leurs droits et leurs intérêts face aux entreprises dont ils dépendent. Ce d’autant que les géants de la tech passent par des intermédiaires et ne les emploient pas directement.

Un modèle basé sur l’exploitation

Dans ce difficile combat, Mercy Mutemi est l’une de leurs alliés les plus précieuses. Avocate dans la capitale kényane, elle mène plusieurs procédures contre Meta (maison mère de Facebook, Instagram et WhatsApp). «Au Kenya, le secteur de l’IA – au niveau de l’annotation de données, de la modération de contenu et de l’entraînement des algorithmes – repose sur un modèle d’exploitation qui implique deux choses: de la traite d’êtres humains ou du travail forcé.»

Les accusations, d’une extrême gravité, ciblent directement le géant américain. «Meta elle-même était impliquée dans la traite d’êtres humains. Quand vous êtes pris dans un système de traite, on vous fait venir à des fins d’exploitation (…) La plateforme vous donne des objectifs que vous ne pouvez pas atteindre, pour faire un travail impossible pour lequel vous n’avez même pas signé volontairement. Et si vous n’atteignez pas ces objectifs, votre salaire est réduit, constamment.»

Donna con occhiali
Mercy Mutemi, avocate dans la capitale Kenyane, mène plusieurs procédures contre Meta. RTS

Des employés vulnérables

De nombreux migrants au statut fragile ont ainsi travaillé pour Meta au Kenya, à travers un système de sous-traitance. «Tout le schéma était de faire venir des gens vulnérables de manière trompeuse pour du travail et de les exploiter. Et c’est cela qui constitue la traite d’êtres humains.» Les cas sont actuellement pendants devant la justice kényane.

Michael Geoffrey, lui, se bat désormais pour faire valoir les droits de ses confrères au sein de la DLA, la Data Labelers Association. Un jeune mouvement de type syndical qui tente de fédérer les petits pour obtenir de meilleures conditions de la part des grands.

Meta, TikTok, OpenAI et Tesla n’ont pas répondu aux sollicitations de la RTS.

Emplois précaires, en Suisse aussi

Écrire des prompts, donc des requêtes, ainsi que leurs réponses, c’est ce qu’a fait Daniel Burnier pendant 6 mois depuis son domicile d’Aubonne, via la plateforme Outlier. Objectif: entraîner des outils de type ChatGPT avec deux consignes bien particulières: être créatif et très local. Un travail qui permet aux robots conversationnels de «parler romand» avec les utilisateurs de la région.

«Une des manières dont on a été formés dans ce travail pour Outlier, pour battre entre guillemets les réponses de ChatGPT qui sont un peu génériques, c’était d’utiliser des réalités très locales.» Il écrira ainsi des questions et des réponses sur l’écrivain Maurice Chappaz, la Dent de Vaulion, les spécialités culinaires genevoises ou encore, la commune d’Aubonne. Il composera même des poèmes pour éduquer la machine à la beauté et à la sensibilité.

Recrutement sur LinkedIn

Docteur en Sciences sociales, c’est la précarité qui l’a poussé vers cette activité. «J’étais chargé de cours à l’Université de Neuchâtel et j’avais une charge de cours qui ne payait pas nos factures. Et du coup, j’ai cherché à compléter mon revenu en entrant dans l’intelligence artificielle.» Outlier recrute activement en Suisse et c’est via LinkedIn qu’il candidate. Il rejoint alors le réseau d’experts de ce poids lourd mondial du business de l’annotation – Meta vient d’investir 14 milliards de dollars dans sa maison mère. Un travail stimulant mais dont il ne lui sera pas possible de vivre.

«En Europe, sur le papier, on gagne jusqu’à 25€ de l’heure, mais en réalité il y a une mauvaise surprise pour les travailleurs: elles n’assurent pas un nombre suffisant de tâches pour pouvoir avoir un niveau de rémunération adéquat», explique Antonio Casilli, Professeur au sein de l’Institut Polytechnique de Paris et spécialiste du secteur.

Des missions qui sont rares

De fait, Daniel Burnier attend en vain que des missions lui soient attribuées. Mais celles-ci sont rares et le niveau de salaire horaire ne correspond pas à ce qui est affiché. «La plateforme ne payait pas quand je devais faire des recherches pour écrire de bonnes réponses ou faire des formations obligatoires pour participer à des projets. J’ai gagné environ 500 francs par mois pour des tâches qui correspondaient à environ 30% de mon temps.» Soit entre 8 et 9 francs de l’heure.

Contactée, Outlier explique que «le niveau de rémunération est basé sur des facteurs tels que la complexité des tâches, l’expertise et la durée estimée de résolution des tâches» et que «la rémunération est souvent compétitive par rapport au niveau du marché pour ce type de travail».

Les plus appréciés

Les plus discutés

En conformité avec les normes du JTI

Plus: SWI swissinfo.ch certifiée par la Journalism Trust Initiative

Vous pouvez trouver un aperçu des conversations en cours avec nos journalistes ici. Rejoignez-nous !

Si vous souhaitez entamer une conversation sur un sujet abordé dans cet article ou si vous voulez signaler des erreurs factuelles, envoyez-nous un courriel à french@swissinfo.ch.

SWI swissinfo.ch - succursale de la Société suisse de radiodiffusion et télévision

SWI swissinfo.ch - succursale de la Société suisse de radiodiffusion et télévision