Prospettive svizzere in 10 lingue
illustrazione di robot.

La macchina e la morale

Le tecnologie digitali in rete offrono grandi opportunità per l'economia e la società, ma sollevano problemi etici. Un esempio, fra tanti, è il riconoscimento facciale. La Svizzera, una delle nazioni leader nel campo dell'intelligenza artificiale (IA), affronta la sfida.

Perdita di posti di lavoro a causa dell’automazione, protezione dei dati, riconoscimento facciale, video deepfake, sicurezza informatica, uso improprio dell’IA e delle tecnologie robotiche: la digitalizzazione ha portato con sé un numero storicamente senza precedenti di nuove sfide etiche.

L’ultimo esempio è il software ChatGPT, un chatbot che si basa sull’intelligenza artificiale (IA) e che ha sollevato preoccupazioni in diversi settori. Dalla sua introduzione, avvenuta alla fine dell’autunno 2022, ha fatto costantemente parlare di sé per la sua capacità di eseguire compiti come codificare e correggere errori nei programmi informatici. ChatGPT solleva anche diverse questioni etiche.

Altri sviluppi

Cosa potrebbe accadere se l’IA finisse nelle mani sbagliate, non si osa nemmeno immaginarlo. La comunità internazionale, ad esempio, è tuttora divisa sulla necessità di regole severe per i robot killer. I colloqui in seno agli organi delle Nazioni Unite a Ginevra sono stati in gran parte inconcludenti.

Attualmente non esistono armi simili completamente autonome. Ma secondo gli attivisti, visti i rapidi progressi e gli elevati investimenti nel campo dell’intelligenza artificiale e di altre tecnologie chiave, nel giro di pochi anni potrebbero diventare realtà.

Altri sviluppi

Altri sviluppi

Robot killer: che fare?

Questo contenuto è stato pubblicato al La comunità internazionale è divisa sulla necessità di applicare norme più rigide sui robot killer – le armi letali autonome.

Di più Robot killer: che fare?

La Svizzera è uno dei paesi leader nello sviluppo dell’IA. Per IA s’intende un software che impara a pensare e a decidere come un essere umano. Il processo di apprendimento si basa sull’elaborazione di grandi quantità di dati.

Numerose startup in Svizzera sviluppano tali sistemi di apprendimento – sia sotto forma di robot, che di applicazioni o di assistenti digitali – che dovrebbero semplificarci la vita grazie ai big data. Queste aziende si confrontano costantemente con questioni di etica. Il dilemma di fondo: un’azienda che vuole vendere tecnologie, dove dovrebbe tracciare la linea rossa?

Questo problema diventa particolarmente evidente all’interfaccia tra ricerca e applicazione concreta. Cosicché, delle università svizzere partecipano anche a progetti finanziati dall’esercito americano. Questi vanno dalle telecamere di sorveglianza dello spazio aereo ai droni da ricognizione controllati autonomamente.

Altri sviluppi

La Svizzera mostra ambizioni

La Svizzera vuole essere capofila in fatto di standard etici legati all’IA. Ma da dove può partire per assumere il ruolo pionieristico a cui mira? Grazie al suo status di Paese neutrale con un forte settore della ricerca, la Svizzera ha le potenzialità per sfidare gli approcci dominanti di Cina e Stati Uniti e diventare un terzo polo di ricerca sull’IA “che non funzioni come una società o un’impresa statale”, ha detto il sindaco di Davos Philipp Wilhelm. 

La città tra le Alpi grigionesi sta cercando di diventare un centro neutrale per lo sviluppo di tecnologie basate sull’IA che siano responsabili, inclusive e democratiche.  “Quello che manca è un approccio neutrale, indipendente e umanistico”, ha affermato Wilhelm.

Altri sviluppi

Un altro tentativo è lo Swiss Digital Trust Label, l’etichetta con cui si cerca di rafforzare la fiducia degli utenti nelle nuove tecnologie. L’idea alla base è quella di trasmettere più informazioni sui servizi digitali, creare trasparenza e garantire che i valori etici siano rispettati.

“Allo stesso tempo, si intende contribuire a garantire che anche un comportamento etico e responsabile diventi un vantaggio competitivo per le aziende”, afferma Niniane Paeffgen, direttrice dell’Iniziativa digitale svizzera, che è all’origine dello Swiss Digital Trust Label (Etichetta svizzera di fiducia digitale).

Altri sviluppi

Esiste un ampio consenso sul fatto che siano necessarie regole e definizioni chiare che traccino i confini dei limiti etici. A tal fine il governo elvetico ha istituito il gruppo di lavoro interdipartimentale “Intelligenza artificiale”. Alla fine di novembre 2020 ha adottato le relative linee guidaCollegamento esterno per l’Amministrazione federale.

“È importante che la Svizzera utilizzi il potenziale derivante dalle nuove possibilità offerte dall’intelligenza artificiale”, afferma il gruppo di lavoro interdipartimentale in un rapporto rivolto al governo federale. “Per questo occorre garantire le migliori condizioni quadro possibili affinché la Svizzera possa affermarsi e svilupparsi ulteriormente come uno dei principali luoghi innovativi al mondo per la ricerca, lo sviluppo e l’applicazione dell’IA. Al contempo si devono anche affrontare i rischi associati all’uso dell’IA e adottare provvedimenti in tempo utile”.

Altri sviluppi
A 3D rendering of two hands pointing at glowing digital brain. Artificial intelligence and future concept.

Altri sviluppi

La Svizzera può prendere le redini del dibattito etico?

Questo contenuto è stato pubblicato al Grazie alla forte democrazia e a una ricerca di prim’ordine, la Svizzera potrebbe assumere un ruolo guida nella definizione di un’AI etica.

Di più La Svizzera può prendere le redini del dibattito etico?

Ognuno ha una morale diversa

Da molte parti è sollecitato uno standard vincolante a livello globale. A fine 2018 un gruppo di esperte ed esperti della Commissione Europea ha messo a punto le prime linee guida etiche. A giugno 2023 il Parlamento europeo ha approvato un primo progetto della legge sull’intelligenza artificiale (legge sull’IA).Collegamento esterno

Altri sviluppi

Nel dicembre 2023, il Parlamento europeo, la Commissione europea e gli Stati membri hanno finalmente concordato una serie di regole vincolanti per l’uso dell’intelligenza artificiale. È la prima del genere a livello mondiale. 

Il regolamento mira a vietare i sistemi di intelligenza artificiale che rappresentano un rischio “inaccettabile” per la cittadinanza e la democrazia. Si tratta, ad esempio, di sistemi che utilizzano dati personali sensibili per la manipolazione psicologica, la classificazione sociale e la profilazione razziale, sessuale e religiosa. 

L’UE ha definito la decisione un “momento storico”. Ma dove si colloca la Svizzera, che in quanto non membro non ha potuto avere voce in capitolo nella regolamentazione dell’IA?

Altri sviluppi

Nel complesso, esistono già numerose linee guida e dichiarazioni di questo tipo. Tuttavia, un’analisi sistematica condotta dall’Health Ethics and Policy Lab del Politecnico federale di Zurigo (ETHZ) ha mostrato che non si trova un singolo principio etico comune in 84 documenti pertinenti.

A ogni modo, in più della metà delle dichiarazioni sono stati menzionati cinque valori fondamentali: trasparenza, giustizia ed equità, prevenzione dei danni, responsabilità, protezione dei dati e della privacy.

Questa discussione sembra essere accesa anche tra i giganti della tecnologia come Google. L’azienda ha licenziato nel 2021 due esperte di etica dell’AI in una controversia. Ciò ha messo in dubbio che la costruzione di un’AI nel rispetto dei principi morali sia davvero tra le priorità dei Big Tech. 

Altri sviluppi
evento google AI

Altri sviluppi

Cosa succede se Google licenzia la sua etica

Questo contenuto è stato pubblicato al Il licenziamento di un’esperta di etica dell’IA di Google mette in dubbio che il rispetto dei principi morali sia tra le priorità dei Big Tech.

Di più Cosa succede se Google licenzia la sua etica

Un nuovo centro di ricerca sull’IA presso l’ETHZ vuole concentrarsi almeno sui valori morali europei. Qui dovrebbe convergere la ricerca sull’IA dell’intero Politecnico. Al centro dell’attenzione sono poste le persone, afferma il suo responsabile, il professor Alexander Ilic, in un’intervista.

“La persona che progetta qualcosa di nuovo ha anche una certa responsabilità. Per questo è importante per noi contribuire a plasmare questo dialogo e incorporare i nostri valori europei nello sviluppo delle applicazioni di intelligenza artificiale”, afferma Alexander Ilic.

Altri sviluppi
scultura di un uomo

Altri sviluppi

Per un’intelligenza artificiale con valori europei

Questo contenuto è stato pubblicato al Il nuovo centro del Politecnico di Zurigo vuole garantire che l’intelligenza artificiale supporti le persone e non le sostituisca.

Di più Per un’intelligenza artificiale con valori europei

L’argomento probabilmente più importante a favore dell’utilizzo dell’intelligenza artificiale è che può semplificare le nostre vite. Principalmente perché tali sistemi ci aiutano a risparmiare tempo e si assumono compiti noiosi, come può fare ChatGPT. Nei migliori dei casi, l’IA può persino salvare vite umane, ad esempio se combinata con un drone di soccorso che può operare in spazi ristretti.

Altri sviluppi
Un drone della Rega in volo.

Altri sviluppi

I droni svizzeri in soccorso!

Questo contenuto è stato pubblicato al I ricercatori e i soccorritori di montagna in Svizzera stanno facendo enormi progressi nel campo dei droni autonomi.

Di più I droni svizzeri in soccorso!

D’altra parte, il think tank del Parlamento europeo stima che entro il 2030 l’IA potrebbe dare tra l’1,5 e il 4% del contributo alla riduzione delle emissioni globali di gas serra. Grosso modo equivarrebbe al traffico aereo totale.

“Le sfide per la trasformazione dei sistemi nei settori dell’approvvigionamento energetico, della nutrizione, dell’abitazione e della mobilità sono grandi”, scrive il gruppo di lavoro della Confederazione sull’IA. Il team di esperti è convinto che l’IA “svolgerà un ruolo importante come tecnologia chiave per affrontare queste sfide”.

A causa della pandemia di coronavirus, numerosi servizi sono passati alla forma digitale quasi dall’oggi al domani. Ciò ha dato una vera spinta all’intelligenza artificiale nella quotidianità. Ad esempio, l’impiego di robot per disinfettare locali di edifici pubblici come scuole e ospedali.

Altri sviluppi

Timori per i posti di lavoro e le persone

Tuttavia, molte persone sono critiche nei confronti dell’IA. L’astrofisico di fama mondiale Stephen Hawking ha dichiarato: “L’intelligenza artificiale è la miglior o la peggior cosa che accadrà mai all’umanità”. I critici dei cosiddetti “robot killer” temono che l’intelligenza artificiale e i robot possano mettere in pericolo non solo i posti di lavoro, ma anche le persone.

Lo scetticismo cresce anche nella società. L’industria è già nel mezzo di una rivoluzione: big data, intelligenza artificiale, Internet delle cose (IoT), stampanti 3D stanno cambiando le esigenze dei dipendenti. Lavori semplici o ripetitivi sono sempre più spesso delegati alle macchine.

Altri sviluppi

Si prevede quindi che l’utilizzo dell’IA nel lavoro porti presto alla razionalizzazione degli impieghi. Perché, come mostra la ricerca, più della metà dell’attuale lavoro umano può essere svolto in modo più rapido ed efficiente da sistemi automatizzati.

Il ricercatore svizzero Xavier Oberson si schiera tra coloro che propongono quindi di tassare i robot se utilizzati per un lavoro tradizionalmente svolto dalle persone. Secondo il professore, i proventi di tale tassa dovrebbero essere investiti nel finanziamento delle assicurazioni sociali e nella formazione dei disoccupati.

Altri sviluppi

Altri sviluppi

Tassare i robot che ci rubano il lavoro?

Questo contenuto è stato pubblicato al ObersonCollegamento esterno condivide la tesi secondo cui, siccome i robot svolgono una quantità crescente di mansioni – in particolare nell’industria e nei servizi – la disoccupazione è destinata a crescere, con una conseguente diminuzione globale del gettito fiscale e dei contributi sociali. Egli ritiene che la tassazione del lavoro svolto dai robot debba contribuire a…

Di più Tassare i robot che ci rubano il lavoro?

E da che parte stanno i consumatori in tutta questa discussione? Sono molto spesso scettici sulle applicazioni di IA. Secondo alcuni studi, tuttavia, non si preoccupano in primo luogo del fatto che l’IA possa spazzare via o controllare l’umanità, ma piuttosto della sicurezza dei loro dati. Perciò i produttori sono sottoposti a crescenti pressioni per rendere la loro tecnologia trasparente per gli utenti.

L’esperto Alexander Ilic cita l’esempio di uno degli obiettivi del suo centro di intelligenza artificiale: “Vogliamo mostrare tramite il dialogo con il pubblico cosa può effettivamente fare l’IA. Ci sono molti esempi tangibili. Soprattutto ciò che sta accadendo nel campo della medicina e della salute digitale riguarda tutti, è di facile comprensione e porta molti cambiamenti positivi. Ma vogliamo anche dimostrare che l’intelligenza artificiale supporta le persone, non le sostituisce”.

Altri sviluppi

Traduzione dal tedesco: Sonia Fenazzi

In conformità con gli standard di JTI

Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR