Prospettive svizzere in 10 lingue

La leadership svizzera nello sviluppo di tecnologie IA per i droni solleva interrogativi etici

Swiss drone in forest
La traiettoria di un prototipo di drone sviluppato all'Università di Zurigo. zVg

La Svizzera si sottrae alla responsabilità di stabilire norme per lo sviluppo di tecnologie con possibili applicazioni militari.

La Svizzera non può fare a meno di posizionarsi come sede di ricerche all’avanguardia per lo sviluppo di droni e l’intelligenza artificiale (IA): i suoi politecnici, infatti, sono tra i migliori al mondo. Basti pensare che si classifica addirittura al primo postoCollegamento esterno per qualità delle pubblicazioni scientifiche e relativo impatto sulla ricerca. L’area metropolitana di Zurigo è nota come “la Silicon Valley della robotica” grazie alla presenza di Google e di altre aziende leader, oltre che di laboratori universitari di prim’ordine.

I rischi legati a questo tipo di ricerca innovativa non vengono presi in considerazione nella narrazione promossa dalle autorità. La comunità scientifica, tuttavia, non manca di sottolinearli. Da tempo ormai, ricercatori e ricercatrici di IA temono una corsa agli armamenti alimentati dall’intelligenza artificiale, droni compresi. Nel 2017 è stato pubblicato il video virale SlaughterbotsCollegamento esterno, una storia inventata su un futuro distopico, in cui dei mini-droni danno la caccia a degli specifici individui senza alcuna forma di controllo umano.

“Molti esponenti politici non comprendono a fondo la tecnologia”, spiega Max Tegmark, professore di fisica all’MIT di Boston, la principale università di tecnologia degli Stati Uniti. “Stiamo parlando di armi di distruzione di massa che sarebbero accessibili a tutti”. Tegmark dirige il Future of Life InstituteCollegamento esterno che ha prodotto il video sugli Slaughterbots. A lui si unisce la voce dell’esperto militare statunitense Zachary Kallenborn, il quale paragona i pericoli degli sciami di droni armati a quelli delle armi chimiche e biologiche.

Negli ultimi anni, quella delle armi letali autonome sta diventando sempre più una realtà. Nel 2021, l’esercito israeliano ha lanciato uno sciame di droni nella Striscia di Gaza palestinese: per la prima volta, questa tecnologia alimentata dall’intelligenza artificiale è stata applicata su un campo di battagliaCollegamento esterno. Nell’autunno del 2022, l’azienda di armi israeliana Elbit Systems ha rivelato un nuovo tipo di drone kamikaze che identifica autonomamente gli obiettivi. Per trasformare il dispositivo in una macchina assassina, basta premere un pulsante. Una volta attivato, il drone spara al bersaglio o ci vola contro ed esplode: una simbiosi perfetta tra le scelte tattiche di combattimento, la tecnologia dei droni e l’IA.

Oggi serve ancora qualcuno che inneschi la procedura letale e se ne assuma la responsabilità, ma la situazione potrebbe cambiare. Nel 2020, in Libia, è stata impiegata un’arma con capacità completamente autonome. Le circostanze precise rimangono poco chiare, ma un rapporto pubblicato dalle Nazioni UniteCollegamento esterno afferma che il drone turco Kargu-2 potrebbe aver attaccato degli obiettivi senza controllo umano.

Oltre a Israele e Turchia, anche gli eserciti di Stati Uniti, Cina, Regno Unito, India e altre nazioni stanno lavorando a tecnologie simili. Alcuni degli algoritmi che alimentano questa linea di ricerca sono stati sviluppati in Svizzera.

Regole ambigue

Le università svizzere in genere mantengono un basso profilo sulle potenziali applicazioni militari delle loro tecnologie. Il Politecnico federale di Losanna (EPFL) ne è un esempio lampante: né Dario Floreano, direttore di lunga data della NCCR Robotics, né Aude Billard, direttrice della NTN Robotics – che gode di finanziamenti pubblici – hanno voluto rilasciare commenti sulla questione. Entrambi affermano di non sapere fino a che punto tecnologie come gli sciami di droni vengano impiegate per uso militare.

Certo, esistono delle norme. Le collaborazioni con le istituzioni militari devono essere approvate dall’università e ricercatori e ricercatrici devono attenersi alle apposite linee guidaCollegamento esterno emanate dal Governo federale. Tuttavia, nel caso delle tecnologie più recenti queste regole non sono più adatte allo scopo, afferma Marcello Ienca, ricercatore di etica dei sistemi intelligenti all’EPFL: “Negli ultimi anni è diventato quasi impossibile tracciare una separazione netta tra tecnologie civili e militari”, spiega. “I controlli sulle esportazioni difficilmente funzionano nel caso dell’IA perché si concentrano su applicazioni specifiche, mentre per definizione l’intelligenza artificiale ha uno scopo generale. Pertanto, è possibile esportare software che altrove vengono utilizzati per sistemi d’arma”.

La ricerca in Svizzera segue il principio dell’open science, per cui i risultati ottenuti devono essere resi pubblici. “Le armi letali autonome estremizzano il dilemma tra ricerca libera e potenziale abuso”, spiega Ienca. “Eticisti ed eticiste concordano sul fatto che non dovremmo costruire macchine in grado di decidere autonomamente su questioni di vita e di morte. Credo che nessuno, in Svizzera, lavorerebbe intenzionalmente a tali sistemi”. Eppure, aggiunge: “Anche le ricerche portate avanti con le migliori intenzioni possono essere usate da terzi per scopi militari o criminali”. Anche il Fondo nazionale svizzero per la ricerca scientifica (FNS), che sostiene numerosi progetti di ricerca, afferma che “è impossibile prevedere le applicazioni future dei risultati odierni”.

Ienca identifica due modi per affrontare il dilemma senza compromettere la ricerca: i ricercatori e le ricercatrici che ricevono finanziamenti da istituzioni militari dovrebbero rivelarlo e chiarire come gestiscono i conflitti di interesse. Le università, dal canto loro, dovrebbero sensibilizzare sistematicamente scienziati e scienziate sui rischi, con corsi di formazione sulla sicurezza istituiti già da tempo nella ricerca chimica e biologica.

Le decisioni etiche rimangono nelle mani dei singoli

La Confederazione non dispone di procedure nazionali a questo scopo. L’Università di Zurigo ha un piano di sensibilizzazione per ricercatori e ricercatrici, ma non prevede programmi di formazione obbligatori. L’EPFL organizza corsi di etica che sono obbligatori per i nuovi studenti e studentesse, ma volontari per i team già esistenti, per cui molto dipende dai singoli docenti.

Intanto Elbit Systems, l’appaltatore della difesa israeliana che ha guidato lo sviluppo di droni controllati dall’IA per uso militare, ha due filiali in Svizzera. Il nuovo drone da ricognizione svizzero, l’ADS15, è un prodotto Elbit. Sul suo sito web, l’azienda sottolinea l’alto livello tecnologico del Paese elvetico e l’attrattiva dei suoi centri di ricerca.

Il FNS, che promuove la ricerca congiunta tra Israele e Svizzera, scrive che “la ricerca va organizzata in modo da non poter essere utilizzata in modo improprio”. In alcuni casi il Fondo interviene se teme particolari rischi. Tuttavia, la responsabilità spetta “in primo luogo a ricercatori, ricercatrici e ai rispettivi istituti”, afferma. Finora, nella ricerca, non esiste un’autovalutazione standardizzata sui rischi legati alle applicazioni non pacifiche.

Innosuisse, che promuove le varianti commerciali della ricerca per conto del Governo federale, sensibilizza chi si candida per lavorare al suo interno. Il rispetto dei requisiti legali pertinenti, però, spetta alle aziende: “Innosuisse non è in grado di assumersi alcuna responsabilità in questo senso”, scrive l’agenzia per la promozione dell’innovazione in una dichiarazione inviata via e-mail.

Il Governo federale ha emanato delle linee guida per FNS e Innosuisse, ma non dei requisiti vincolanti. “Sono le università e i loro ricercatori e ricercatrici ad avere la responsabilità dell’integrità scientifica [delle loro ricerche]”, scrive la Segreteria di Stato per la formazione, la ricerca e l’innovazione (SEFRI). “La gestione di questo aspetto è estremamente variabile”.

Questo articolo è stato sostenuto da una sovvenzione della JournaFONDS ed è apparso per la prima volta sul SonntagsBlick il 15 gennaio 2023.

JournaFONDS logo
Stefany Barker

Traduzione: Camilla Pieretti

In conformità con gli standard di JTI

Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative

Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.

Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR