IA et migration: un marché juteux aux frontières?
Les dérogations accordées à la recherche et la tendance européenne à la militarisation dans le domaine de l’asile génèrent des profits. Pour les entreprises d’armement, mais aussi, de plus en plus, pour les instituts de recherche. Y compris en Suisse.
Jusqu’ici, les gardes-frontière grecs à la frontière avec la Macédoine du Nord s’appuyaient sur un système d’alerte précoce plutôt inhabituel. Lorsque les cigognes, perchées sur le pont qui enjambe le fleuve Axios, s’envolaient brusquement, ils comprenaient qu’un mouvement anormal venait d’agiter les fourrés. Souvent, il s’agissait de personnes migrantes tentant de quitter la Grèce pour rejoindre l’Europe du Nord via la route des Balkans.
Les oiseaux aux longues pattes seront bientôt remplacés: caméras, radars et drones vont prendre le relais. La Grèce va décliner le «modèle Evros» le long de sa frontière jusqu’à l’Albanie, reproduisant ainsi la barrière high-tech assistée par l’IA déjà installée à la frontière turque. Les pays d’Europe du Nord, en particulier l’Allemagne, entendent réduire le nombre de demandes d’asile. L’Union européenne injecte des sommes considérables dans les nouvelles technologies, comme le programme «E-Surveillance», financé à hauteur de 35,4 millions d’euros.
Absence de contrôle démocratique
Partout en Europe, la migration est de plus en plus perçue comme un risque pour la sécurité. «Tout ce qui concerne les frontières échappe de plus en plus au contrôle démocratique, à la responsabilité et à la transparence», explique Bram Vranken, du Corporate Europe Observatory, organisme basé à Bruxelles qui analyse les activités de lobbying dans les secteurs de la technologie et de la défense.
Cet article est le fruit du travail d’une équipe internationale composée de cinq journalistes venant de Grèce, d’Allemagne, du Royaume-Uni et de Suisse.
Les partenaires de publication Swissinfo (Suisse), Die Tageszeitung (Allemagne), Solomon (Grèce) et Inkstick Media (États-Unis) ont mené l’enquête dans huit pays.
Plus d’une vingtaine d’entretiens ont été menés avec des fonctionnaires, des sources internes et des gardes-frontières, en plus de recherches sur le terrain. Des centaines de pages de documents publics ont été passées au crible, ainsi que des dossiers internes, des demandes d’accès à l’information, des appels d’offres et des documents techniques.
Cette enquête de plusieurs mois a été rendue possible grâce au soutien de deux institutions: le fonds Investigative Journalism for Europe (IJ4EU) et le Pulitzer Center.
Le processus de militarisation et de sécurisation de la politique migratoire constitue, sur fond de réglementations floues en matière de données, de clauses de confidentialité et d’un contrôle public limité, un véritable marché, soutenu par un puissant lobby à Bruxelles. Ce nouvel écosystème de l’IA profite aux groupes d’armement, aux entreprises de sécurité et, de plus en plus, aux instituts de recherche. Y compris en Suisse.
Plus
Beaucoup de gens immigrent en Suisse, beaucoup en repartent aussi
La ville de Martigny, dans le Valais, abrite l’institut de recherche Idiap. Financé par des fonds privés et publics, ce dernier est considéré comme un «établissement de recherche d’importance nationale»Lien externe. Il se consacre à la recherche fondamentale dans le domaine de l’intelligence artificielle, notamment l’usage de prothèses médicales, l’intégration de l’IA dans les processus démocratiques ou encore la détection de falsifications numériques. Selon son site Internet,Lien externe l’institut encourage activement la collaboration avec le secteur privé et mise sur la création de startups.
Identifier des personnes à partir de leur démarche
L’institut Idiap compte également un groupe de recherche en biométrie, dirigé par le professeur Sébastien Marcel. À l’automne 2025, l’équipe a obtenu un financement pour la rechercheLien externe accordé par Frontex, l’Agence européenne de gardes-frontière et de gardes-côtes. Selon la description du projet, la première étape consiste à produire un ensemble de données constitué d’images et de vidéos simulant des «situations de franchissement de frontières difficiles».
Dans un deuxième temps, un ensemble de données plus important, comprenant plus de 10’000 identités synthétiques, c’est-à-dire fictives, sera généré. Ces données – réelles et synthétiques – seront ensuite comparées pour évaluer leur pertinence. Un «ensemble de données multispectrales pour la reconnaissance faciale et la détection des déplacements aux frontières» sera ainsi créé à partir d’images visibles et invisibles à l’œil nu, grâce à l’infrarouge ou à l’imagerie thermique. Le système doit permettre d’identifier les personnes à partir de leurs traits du visage, de leurs mouvements et de leur façon de marcher.
Les prises de vue destinées au projet Frontex sont réalisées exclusivement sur le site de l’institut, précise Sébastien Marcel. Dans le cadre de ce projet, prévu pour une durée de dix mois, seule l’équipe de recherche aura accès aux données collectées et générées. «L’Idiap conserve le contrôle sur les données», assure le professeur.
Une question se pose néanmoins: qu’adviendra-t-il de l’ensemble des données et des conclusions tirées à l’issue du projet? «Elles seront utilisées par l’Idiap et ses partenaires à des fins de recherche académique et d’analyse comparative des technologies», répond Sébastien Marcel. On ignore encore «exactement» qui seront ces partenaires. «En principe, il s’agira d’instituts de recherche prêts à conclure un accord de licence avec notre établissement.»
Interrogé sur la surveillance éthique, Sébastien Marcel indique que l’Idiap dispose d’un comité d’éthique interne dédié à la recherche fondée sur les données. L’organe est informé de l’ensemble des projets. «Il existe également des directives et des procédures internes régissant la collecte de données pour les projets de recherche à l’Idiap.» Que contiennent ces directives? «Ce document n’est pas accessible au public», indique le professeur.
Armée ou asile: des technologies similaires
Les voies reliant la recherche fondamentale en intelligence artificielle à son utilisation dans le domaine de la migration sont souvent tortueuses et peu transparentes. Dans les applications qui en découlent, on observe une nette tendance à la militarisation: désormais, les systèmes utilisés par les armées servent également à contrôler les mouvements migratoires.
En septembre 2025, de hauts responsables européens de la gestion des frontières ont participé à une réunion interne sur l’innovation au siège de Frontex à Varsovie, révèle cette enquête. Un réseau de surveillance par drones testé par Frontex et développé par l’entreprise d’armement américaine Shield AI y a été présenté. Cette société est dirigée par un ancien soldat d’élite des Navy SEALs américains. Au cours d’un test de soixante jours, les drones V-BAT, capables de décoller à la verticale, ont survolé la frontière entre la Bulgarie et la Turquie, transmettant des vidéos en temps réel à un centre de commandement. Un système d’intelligence artificielle alertait alors la police des tentatives de franchissement de la frontière par des personnes migrantes.
Selon Frontex, le projet pilote «a contribué à une réduction manifeste (…) des activités criminelles», tout en offrant «des garanties complètes pour les droits fondamentaux». La Bulgarie est régulièrement critiquée pour ses violations des droits des demandeurs et demandeuses d’asile. Shield AI a refusé de répondre aux questions concernant le système, son utilisation, son coût ou le traitement des données.
Jusqu’où va un projet pilote?
Ce projet pilote illustre la stratégie de Frontex en matière d’IA aux frontières extérieures de l’UE. Il montre à quel point il peut être difficile de faire la distinction entre les projets pilotes et les véritables opérations. Une distinction que Niovi Vavoula juge de plus en plus impossible. La professeure de droit et de cyberpolitique à l’Université du Luxembourg a étudié de manière approfondie la réglementation de l’IA en Europe.
Dès lors que des systèmes sont testés sur des personnes réelles dans des environnements non contrôlés, comme c’est le cas avec Shield AI en Bulgarie, on ne peut plus parler de «phase de test dans le domaine de la recherche». Malgré l’étiquette de projet pilote, l’utilisation de ces systèmes a des conséquences concrètes pour des personnes réelles. «Dans ce cas, les dérogations pour la recherche ne devraient plus s’appliquer», estime Niovi Vavoula.
L’AI Act, le cadre juridique de l’UE en matière d’intelligence artificielle, est entré en vigueur le 1er août 2024. D’ici à août 2026, il devra être appliqué dans tous les domaines. Le texte repose sur une évaluationLien externe des applications en fonction de leur niveau de risque: faible, limité, élevé ou inacceptable. Les systèmes de bonus social (social scoring) tels qu’utilisés en Chine ou la reconnaissance faciale généralisée dans l’espace public sont, par exemple, considérés comme présentant des risques inacceptables.
L’AI Act traite des applications à haut risque, notamment les systèmes de classification biométrique assistés par l’IA. Les applications dans le domaine de la sécurité nationale en sont exclues. De même, des exceptions sont prévues pour la recherche.
Dans une réponse écrite, Frontex déclare qu’elle «n’exploite ni n’utilise de systèmes d’IA à haut risque». Les garde-côtes grecs affirment également qu’ils «n’exploitent pas de système d’intelligence artificielle» et que toutes leurs acquisitions incluent des clauses de protection des données, tout en admettant recourir à des «plateformes électroniques dotées d’un mécanisme d’IA» fournies par l’UE.
Le choix des mots n’est pas anodin: les autorités préfèrent parler d’«algorithmes», d’«automatisation» ou d’«innovation», souligne Niovi Vavoula. «Elles se cachent derrière des termes généraux.» Cela leur permet d’échapper à un examen minutieux et de continuer à développer ces systèmes «sans avoir à les qualifier d’IA».
Or, ce devrait être le cas selon la réglementation européenne, en particulier dans le domaine de la migration, de l’asile et du contrôle des frontières, car il y est question «de personnes qui se trouvent souvent dans des situations précaires». Les systèmes d’IA ne devraient «en aucun cas» être utilisés pour contourner les droits des demandeuses et demandeurs d’asile, par exemple en les localisant ou en les refoulant à l’aide de drones et de capteurs dotés d’IA avant même que ces personnes n’aient pu déposer une demande.
Plus de fonds suisses
La Suisse accuse un certain retard par rapport à l’UE en matière de régulation de l’IA. Elle ne s’est pas ralliée à l’AI Act et une réglementationLien externe n’est attendue que dans quelques années. Du reste, pour des raisons économiques et de compatibilité juridique, le pays devrait s’aligner sur la réglementation européenne.
Début 2025, l’Office fédéral de la justice a établi un rapport à l’intention du Conseil fédéral, dans lequel il est fait référence à la convention du Conseil de l’Europe. Il y est précisé également que le secteur de la défense est «exclu du champ d’application de la convention», tout comme le domaine de la «recherche et développement».
Cette enquête a été rendue possible grâce au soutien des institutions suivantes:
Investigative Journalism for Europe Fund (IJ4EU)Lien externe
Pulitzer CenterLien externe
Texte relu et vérifié par Giannis Mavris, traduit de l’allemand par Zélie Schaller/op
Plus
Notre newsletter sur la politique extérieure de la Suisse
En conformité avec les normes du JTI
Plus: SWI swissinfo.ch certifiée par la Journalism Trust Initiative
Vous pouvez trouver un aperçu des conversations en cours avec nos journalistes ici. Rejoignez-nous !
Si vous souhaitez entamer une conversation sur un sujet abordé dans cet article ou si vous voulez signaler des erreurs factuelles, envoyez-nous un courriel à french@swissinfo.ch.