Des chercheurs suisses chassent les «deepfakes»

Bien que les vidéos deepfake les plus connues soient des parodies mettant en scène des hommes politiques et des célébrités, on craint de plus en plus que la technologie puisse être déployée pour interférer dans les processus politiques ou manipuler l'opinion publique. Shutterstock

Les vidéos truquées à l'aide de l'intelligence artificielle deviennent toujours plus sophistiquées. Des experts en Suisse romande réévaluent les risques que leur utilisation malveillante fait courir à la société, tout en mettant au point des outils innovants pour arrêter leurs auteurs.

Ce contenu a été publié le 11 mars 2020 - 08:30

Dans un laboratoire informatique du vaste campus de l'École polytechnique fédérale de Lausanne (EPFL), l’équipe d'ingénieurs du Multimedia Signal Processing Group contemple l'image d'un homme souriant, à lunettes, au teint rosé et aux boucles sombres.

«Oui, elle est bonne», lâche le chercheur en chef Touradj Ebrahimi, qui ressemble un peu à l'homme sur l'écran. L'équipe a fondu son portrait avec celui d’Elon Musk, le fondateur de Tesla. Cette technique de synthèse d'images basée sur l'intelligence artificielle permet de produire des vidéos ou des images où l’on se fait passer pour un autre.

L'équipe de l'EPFL a créé l'image du centre en utilisant des techniques d'apprentissage automatique pour modifier la photo de Touradj Ebrahimi (à droite) avec une image basse résolution d'Elon Musk de profil trouvée sur Internet. EPFL/MMSPG/swissinfo

C'est l'une des nombreuses falsifications - certaines plus réalistes que d'autres - que l'équipe de l’EPFL a créées. Cela en développant un logiciel, en collaboration avec la société de cybersécurité Quantum Integrity (QI), qui peut détecter les images truquées, y compris les deepfakes.

Grâce au «machine learning» (apprentissage statistique), le même procédé que pour les deepfakes, le logiciel apprend à faire la différence entre le vrai et le faux.

«Avec beaucoup d'entraînement, ce programme peut aider à détecter les faux comme le ferait un humain», détaille M. Ebrahimi. «Plus on l'utilise, meilleurs sont ses résultats.»

Les photos et vidéos contrefaites existent depuis longtemps. Mais ce n'est que récemment que les techniques d'IA ont permis aux faussaires de modifier les visages dans une vidéo ou de faire croire que la personne prononce des paroles qu'elle n'a jamais dites.

La fabrication de vidéos truquées est devenue «exponentiellement plus rapide, plus facile et moins chère», grâce à des logiciels accessibles et faciles à utiliser et des services payants, selon l'International Risk Governance Center (IRGC) de l'EPFL.

«C'est précisément parce que ce domaine évolue si vite que nous devons déterminer où cela pourrait conduire, quels secteurs, groupes et pays pourraient être touchés», relève son directeur adjoint, Aengus Collins.

Bien qu'une grande partie de ces images malintentionnées utilisent le registre de la pornographie, il devient urgent de se préparer à l’utilisation de ces techniques pour manipuler l'opinion publique.

Un domaine qui évolue rapidement

Quand Touradj Ebrahimi a commencé à travailler avec QI sur un logiciel de détection il y a trois ans, les deepfakes n'étaient pas dans le radar de la plupart des chercheurs. À l'époque, les clients de QI étaient préoccupés par les images truquées d'accidents en vue de demandes d'indemnisation frauduleuses auprès des assurances. En 2019, cependant, les deepfakes ont atteint un niveau de sophistication tel que Quantum Integrity a décidé de consacrer beaucoup plus de temps à cette question.

«Je ne pensais pas que la technologie évoluerait aussi vite», déclare Anthony Sahakian, directeur général de QI.

Touradj Ebrahimi, de l'EPFL, et Anthony Sahakian, PDG de Quantum Integrity, prévoient de sortir un premier prototype de leur logiciel de détection de contrefaçons en juin 2020. Alain Herzog

Ce dernier a pu constater par lui-même à quel point ces techniques de contrefaçon ont permis d'obtenir des résultats réalistes, comme récemment l'échange de visages sur une photo de passeport qui parvient à laisser intacts tous les sceaux du document.

En outre, le nombre de vidéos truquées en ligne a presque doublé en neuf mois pour atteindre 14’678 en septembre 2019, selon une estimation de Deeptrace, une société néerlandaise de cybersécurité.

Idiap (screenshot)
Contenu externe

L'IA pour créer et détecter

Cette technologie peut provoquer la panique dans certains milieux, mais tout le monde ne s'accorde pas à dire que les vidéos truquées sont suffisamment réalistes pour tromper la plupart des utilisateurs. Les experts affirment que la qualité des deepfakes dépend encore aujourd'hui en grande partie des compétences du créateur. L'échange de visages sur une vidéo entraîne inévitablement certaines imperfections dans l'image, explique l'expert en sécurité biométrique Sébastien Marcel.

«La qualité sera très variable, en fonction de l'intervention manuelle effectuée pour agrandir l'image, dit-il. Si le créateur fait l'effort de peaufiner le résultat, le faux peut être très difficile à détecter.»

Sébastien Marcel et ses collègues de l'Institut de recherche Idiap à Martigny, dans le canton du Valais, travaillent sur leur propre logiciel de détection, dans le cadre d'un projet sur la manipulation des visages et des voix dans les séquences vidéo.

«Ce problème ne sera pas résolu aujourd'hui, souligne Sébastien Marcel. C'est un sujet de recherche en pleine expansion, nous prévoyons donc d'y consacrer davantage de ressources.»

Pour l'aider à tirer parti de certains résultats initiaux, l'institut à but non lucratif participe à un défi lancé par Facebook pour produire un logiciel de détection de deepfakes. Le géant des réseaux sociaux s'engage à verser plus de 10 millions de dollars aux chercheurs du monde entier (voir encadré).

Mais l’objectif fait débat: «Il est peu probable que ce concours fournisse une solution miracle, souligne Aengus Collins. Quel que soit l'ensemble des techniques de détection, un adversaire finira par trouver un moyen de les contourner.»

Le jeu du chat et de la souris

Anthony Ebrahimi et Sébastien Marcel affirment tous deux que leur but n'est pas de proposer un outil à sécurité intégrée. Une partie du travail consiste à anticiper la direction suivie par les manipulateurs et les méthodes qu’ils utilisent pour y parvenir.

Sébastien Marcel prévoit un avenir où les créateurs pourront non seulement changer un élément d'une vidéo, comme le visage, mais l'image entière: «La qualité des deepfakes va s'améliorer, nous devons donc aussi améliorer les détecteurs», pour que le rapport coût-bénéfice de la fabrication de deepfakes malveillants ne soit plus en faveur du créateur.

Anthony Ebrahimi estime, lui, qu'un événement majeur, comme les prochaines élections présidentielles aux États-Unis, pourrait inciter les acteurs malveillants à accélérer leur travail.

Mais il faudra peut-être des mois ou des années avant que l'œil exercé ne soit plus capable de repérer un faux, dit-il, et à ce moment-là, seules les machines auront la capacité de faire la distinction.

Les plates-formes de réseaux sociaux prennent des mesures

En mars 2020, Twitter a introduit une nouvelle règlementation contre le partage de contenus médiatiques synthétiques ou manipulés qui peuvent causer des dommages. Parmi les mesures, figure l'étiquetage de ces tweets et la diffusion d'avertissements aux utilisateurs. YouTube, propriété de Google, s'est engagé à ne pas tolérer les vidéos truquées liées aux élections et au recensement américains de 2020 qui visent à induire le public en erreur. Facebook a lancé un défi, d'une valeur de plus de 10 millions de dollars, pour soutenir les chercheurs en détection dans le monde entier. Facebook et Google ont tous deux publié des ensembles de données d'images truquées pour aider les chercheurs à développer des techniques de détection.

End of insertion


Deepfakes pour le bien

Les «deepfakes» les plus diffusés ont un caractère parodique, impliquant des individus très en vue, comme des célébrités et des personnalités politiques, selon l'International Risk Governance Center (IRGC), qui souligne que «tous les deepfakes ne sont pas créés dans un but malveillant». Hollywood a également mis au point des technologies pour permettre le retour au cinéma d'acteurs décédés depuis longtemps. Antony Ebrahimi, de l'EPFL, affirme que, si tout se passe comme prévu, un sous-produit du projet EPFL/QI pourrait être l'utilisation éventuelle de cette même technologie pour créer des effets spéciaux de film.

Selon l'IRGC, d'autres utilisations positives des techniques de contrefaçon sont la synthèse vocale à des fins médicales et la médecine légale numérique dans les enquêtes criminelles.

End of insertion

Cet article a été importé automatiquement de notre ancien site vers le nouveau. Si vous remarquez un problème de visualisation, nous vous prions de nous en excuser et vous engageons à nous le signaler à cette adresse: community-feedback@swissinfo.ch

Partager cet article