Navigation

Scienza

La macchina e la morale

Le tecnologie digitali in rete offrono grandi opportunità per l'economia e la società, ma sollevano problemi etici. Un esempio, fra tanti, è il riconoscimento facciale. La Svizzera, una delle nazioni leader nel campo dell'intelligenza artificiale (IA), affronta la sfida.

Questo contenuto è stato pubblicato il 10 dicembre 2020 - 13:00
Luigi Olivadoti (Illustrazione)

Perdita di posti di lavoro a causa dell'automazione, creazione di bolle di filtraggio, protezione dei dati, riconoscimento facciale, video deepfake, sicurezza informatica e abusi nell'uso delle tecnologie di IA: la digitalizzazione ha portato con sé un numero storicamente senza precedenti di nuove sfide etiche.

Cosa potrebbe accadere se l'IA finisse nelle mani sbagliate, non si osa nemmeno immaginarlo. La comunità internazionale, ad esempio, è tuttora divisa sulla necessità di regole severe per i robot killer. I colloqui in seno agli organi delle Nazioni Unite a Ginevra, durati una settimana, sono stati in gran parte inconcludenti.

Attualmente non esistono armi simili completamente autonome. Ma secondo gli attivisti, visti i rapidi progressi e gli elevati investimenti nel campo dell'intelligenza artificiale e di altre tecnologie chiave, nel giro di pochi anni potrebbero diventare realtà.

La Svizzera è uno dei paesi leader nello sviluppo dell'IA. Per IA s'intende un software che impara a pensare e a decidere come un essere umano. Il processo di apprendimento si basa sull'elaborazione di grandi quantità di dati.

Numerose startup in Svizzera sviluppano tali sistemi di apprendimento – sia sotto forma di robot, che di applicazioni o di assistenti digitali – che dovrebbero semplificarci la vita grazie ai big data. Queste aziende si confrontano costantemente con questioni di etica. Il dilemma di fondo: un'azienda che vuole vendere tecnologie, dove dovrebbe tracciare la linea rossa?

Questo problema diventa particolarmente evidente all'interfaccia tra ricerca e applicazione concreta. Cosicché, delle università svizzere partecipano anche a progetti finanziati dall'esercito americano. Questi vanno dalle telecamere di sorveglianza dello spazio aereo ai droni da ricognizione controllati autonomamente.

La Svizzera mostra ambizioni

La Svizzera vuole essere capofila in fatto di standard etici legati all'IA. Ma da dove può partire la Svizzera per assumere il ruolo pionieristico a cui mira? Un tentativo è lo Swiss Digital Trust Label, l'etichetta con cui si cerca di rafforzare la fiducia degli utenti nelle nuove tecnologie. L'idea alla base è quella di trasmettere più informazioni sui servizi digitali, creare trasparenza e garantire che i valori etici siano rispettati.

"Allo stesso tempo, si intende contribuire a garantire che anche un comportamento etico e responsabile diventi un vantaggio competitivo per le aziende", afferma Niniane Paeffgen, direttrice dell'Iniziativa digitale svizzera, che è all'origine dello Swiss Digital Trust Label (Etichetta svizzera di fiducia digitale).

Esiste un ampio consenso sul fatto che siano necessarie regole e definizioni chiare che traccino i confini dei limiti etici. A tal fine il governo elvetico ha istituito il gruppo di lavoro interdipartimentale "Intelligenza artificiale". Alla fine di novembre 2020 ha adottato le relative linee guidaLink esterno per l'Amministrazione federale.

"È importante che la Svizzera utilizzi il potenziale derivante dalle nuove possibilità offerte dall'intelligenza artificiale", afferma il gruppo di lavoro interdipartimentale in un rapporto rivolto al governo federale. "Per questo occorre garantire le migliori condizioni quadro possibili affinché la Svizzera possa affermarsi e svilupparsi ulteriormente come uno dei principali luoghi innovativi al mondo per la ricerca, lo sviluppo e l'applicazione dell'IA. Al contempo si devono anche affrontare i rischi associati all'uso dell'IA e adottare provvedimenti in tempo utile".

Ognuno ha una morale diversa

Da molte parti è sollecitato uno standard vincolante a livello globale. Anche il Parlamento europeo si occupa intensamente della questione dei rischi e dei vantaggi dell'IALink esterno. E un gruppo di esperti della Commissione europea alla fine del 2018 ha presentato un "progetto di orientamenti etici per un'IA affidabileLink esterno" che, dopo un'ampia consultazione, è sfociato nel testo definitivoLink esterno su cui si basa la Commissione nel proseguimento della strategiaLink esterno in questo ambito.

Nel complesso, esistono già numerose linee guida e dichiarazioni di questo tipo. Tuttavia, un'analisi sistematica condotta dall'Health Ethics and Policy Lab del Politecnico federale di Zurigo (ETHZ) ha mostrato che non si trova un singolo principio etico comune in 84 documenti pertinenti.

Alla luce delle grandi differenze tra i valori etici di base che si applicano nei singoli paesi, regna grande incertezza sulla possibilità di realizzare una regolamentazione IA uniforme in un contesto internazionale. Comunque, in più della metà delle dichiarazioni sono stati menzionati cinque valori fondamentali: trasparenza, giustizia ed equità, prevenzione dei danni, responsabilità, protezione dei dati e della privacy.

Un nuovo centro di ricerca sull'IA presso l'ETHZ vuole concentrarsi almeno sui valori morali europei. Qui dovrebbe convergere la ricerca sull'IA dell'intero Politecnico. Al centro dell'attenzione sono poste le persone, afferma il suo responsabile, il professor Alexander Ilic, in un'intervista.

"La persona che progetta qualcosa di nuovo ha anche una certa responsabilità. Per questo è importante per noi contribuire a plasmare questo dialogo e incorporare i nostri valori europei nello sviluppo delle applicazioni di intelligenza artificiale", afferma Alexander Ilic.

L'argomento probabilmente più importante a favore dell'utilizzo dell'intelligenza artificiale è che può semplificare le nostre vite. Principalmente perché tali sistemi ci aiutano a risparmiare tempo. Nei migliori dei casi, l'IA può persino salvare vite umane, ad esempio se combinata con un drone di soccorso che può funzionare in spazi ristretti.

D'altra parte, il think tank del Parlamento europeo stima che entro il 2030 l'IA potrebbe dare tra l'1,5 e il 4% del contributo alla riduzione delle emissioni globali di gas serra. Grosso modo equivarrebbe al traffico aereo totale.

"Le sfide per la trasformazione dei sistemi nei settori dell'approvvigionamento energetico, della nutrizione, dell'abitazione e della mobilità sono grandi", scrive il gruppo di lavoro della Confederazione sull'IA. Il team di esperti è convinto che l'IA "svolgerà un ruolo importante come tecnologia chiave per affrontare queste sfide".

A causa della pandemia di coronavirus, numerosi servizi sono passati alla forma digitale quasi dall'oggi al domani. Ciò ha dato una vera spinta all'intelligenza artificiale nella quotidianità. Ad esempio, l'impiego di robot per disinfettare locali di edifici pubblici come scuole e ospedali.

Timori per i posti di lavoro e le persone

Tuttavia, molte persone sono critiche nei confronti dell'IA. L'astrofisico di fama mondiale Stephen Hawking ha dichiarato: "L'intelligenza artificiale è la miglior o la peggior cosa che accadrà mai all'umanità". I critici dei cosiddetti "robot killer" temono che l'intelligenza artificiale e i robot possano mettere in pericolo non solo i posti di lavoro, ma anche le persone.

Lo scetticismo cresce anche nella società. L'industria è già nel mezzo di una rivoluzione: big data, intelligenza artificiale, Internet delle cose (IoT), stampanti 3D stanno cambiando le esigenze dei dipendenti. Lavori semplici o ripetitivi sono sempre più spesso delegati alle macchine.

Si prevede quindi che l'utilizzo dell'IA nel lavoro porti presto alla razionalizzazione degli impieghi. Perché, come mostra la ricerca, più della metà dell'attuale lavoro umano può essere svolto in modo più rapido ed efficiente da sistemi automatizzati.

Il ricercatore svizzero Xavier Oberson si schiera tra coloro che propongono quindi di tassare i robot se utilizzati per un lavoro tradizionalmente svolto dalle persone. Secondo il professore, i proventi di tale tassa dovrebbero essere investiti nel finanziamento delle assicurazioni sociali e nella formazione dei disoccupati.

E da che parte stanno i consumatori in tutta questa discussione? Sono molto spesso scettici sulle applicazioni di IA. Secondo alcuni studi, tuttavia, non si preoccupano in primo luogo del fatto che l'IA possa spazzare via o controllare l'umanità, ma piuttosto della sicurezza dei loro dati. Perciò i produttori sono sottoposti a crescenti pressioni per rendere la loro tecnologia trasparente per gli utenti.

L'esperto Alexander Ilic cita l'esempio di uno degli obiettivi del suo centro di intelligenza artificiale: "Vogliamo mostrare tramite il dialogo con il pubblico cosa può effettivamente fare l'IA. Ci sono molti esempi tangibili. Soprattutto ciò che sta accadendo nel campo della medicina e della salute digitale riguarda tutti, è di facile comprensione e porta molti cambiamenti positivi. Ma vogliamo anche dimostrare che l'intelligenza artificiale supporta le persone, non le sostituisce".

Condividi questo articolo

Partecipa alla discussione!

Con un account SWI avete la possibilità di contribuire con commenti sul nostro sito web e sull'app SWI plus, disponibile prossimamente.

Effettuate il login o registratevi qui.