Contenu externe

Le contenu suivant a été fourni par des partenaires externes. Nous ne pouvons ainsi pas garantir son accessibilité à tous les utilisateurs.

Sous la pression de ses employés, Google n'utilisera pas ses technologies pour des drones de combat (archives)

KEYSTONE/AP/MARK LENNIHAN

(sda-ats)

Sous la pression de milliers d'employés, Google s'est engagé jeudi à ce que ses travaux en matière d'intelligence artificielle (IA) ne servent pas à fabriquer des armes, sans pour autant renoncer à collaborer avec des gouvernements ou des militaires.

"Nous avons conscience qu'une technologie aussi puissante soulève aussi d'importantes questions à propos de son usage", a écrit le numéro un Sundar Pichai, en énumérant sur le blog du groupe une série de principes éthiques sur les usages de l'intelligence artificielle.

Google fait face depuis plusieurs semaines à une fronde de nombreux employés, furieux de le voir travailler avec le Pentagone pour aider les drones à mieux distinguer les objets des humains grâce à l'intelligence artificielle, un projet baptisé "Maven".

Plus de 4000 d'entre eux ont signé une pétition demandant à Sundar Pichai de rester en dehors du "commerce de la guerre" et de renoncer au contrat, évalué par la presse à environ 9 millions de dollars ( 8,8 millions de francs). Ils lui demandaient aussi "une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre", contraire selon eux aux valeurs fondatrices de l'entreprise née il y vingt ans.

Devant ce tollé, le groupe avait annoncé en interne la semaine dernière qu'il ne renouvellerait pas ce contrat en 2019.

Pour les organisations Electronic Frontier Foundation (EFF) ou le Comité international pour le contrôle des armes-robots (ICRAC), qui ont soutenu les pétitionnaires, l'apport de l'intelligence artificielle ouvre la voie à terme à la suppression de toute intervention humaine dans les missions des drones, posant selon elles un problème éthique majeur.

La crainte des robots-tueurs

L'armée américaine, comme beaucoup d'autres pays, utilise des drones (commandés à distance par des humains) pour des missions de reconnaissance, de renseignement ou procéder à des bombardements, en Afghanistan par exemple.

Des voix, comme celle du médiatique patron de Tesla et SpaceX Elon Musk, mettent en garde régulièrement contre les usages abusifs de l'intelligence artificielle, craignant, comme l'ONU, l'avènement d'armes autonomes, ou "robots-tueurs".

Dans un tweet, l'EFF a salué la décision de Google, évoquant "une grande victoire pour les principes d'une IA éthique".

Des salariés ont aussi exprimé leur satisfaction sur Twitter.

François Chollet, ingénieur informatique dans l'intelligence artificielle au sein du géant américain, a ainsi dit "Merci @sundarpichai. Très heureux de voir ça" tandis que son collègue Laurence Moroney, qui travaille lui aussi dans l'AI, a tweeté : "Ca me rend très heureux d'être un +Googler+", le surnom des employés du groupe.

Ryan Calo, professeur de droit à University of Washington et spécialiste d'internet, a salué "un bon début" de la part de Google.

Même si, a-t-il ironisé sur Twitter, ces principes "tiennent davantage du (philosophe britannique Jeremy) Bentham et des positivistes que du (philosophe allemand, Emmanuel) Kant" connu pour ses écrits sur la morale.

Google, comme d'autres entreprises technologiques, fait partie de groupements comme "Partnership on Artificial Intelligence" promettant des usages éthiques de l'IA mais les principes énoncés jeudi sont plus précis.

M. Pichai promet que les travaux seront uniquement conçus pour des usages "positifs pour la société" et tiendront compte des principes de respect de la vie privée.

Il exclut donc des utilisations de l'IA pour élaborer des "armes" ou "autres technologies dont le but principal est de causer ou de faciliter directement des blessures".

Le groupe rejette aussi plus globalement toute technologie "qui entraîne ou est susceptible de causer du mal" mais avec cette nuance: s'il y a un risque de "faire du mal, nous poursuivrons seulement (nos travaux) lorsque nous pensons que les bénéfices sont très supérieurs aux risques et apporterons les garde-fous appropriés".

Il exclut aussi de collaborer à des systèmes de "surveillance" mais seulement lorsqu'ils enfreignent "les normes acceptées de façon internationale".

M. Pichai prend aussi soin de préciser que "si nous refusons de développer l'intelligence artificielle pour des armes, nous continuerons nos travaux avec des gouvernements et l'armée dans beaucoup d'autres domaines", comme la cybersécurité, la formation, le recrutement militaire ou les missions de sauvetage.

Le groupe marche sur des oeufs car il est, comme d'autres groupes comme Microsoft ou Amazon notamment, sur les rangs pour un énorme contrat de plusieurs milliards de dollars avec le gouvernement américain, dont le Pentagone, qui souhaite recourir au "cloud" informatique.

Google emploie 85'000 personnes dans le monde.

Neuer Inhalt

Horizontal Line


Rejoignez notre page Facebook en français!

subscription form - French

newsletter

Inscrivez-vous à notre newsletter gratuite et recevez nos meilleurs articles dans votre boîte mail.









ATS