Prospettive svizzere in 10 lingue

L’intelligenza artificiale è fuori dal controllo democratico

Lê Nguyên Hoang

Abbiamo un disperato bisogno di maggiore attenzione, manodopera e fondi per istituire sistemi di governance delle intelligenze artificiali (IA) simili a quelli introdotti nelle industrie aeree, farmaceutiche e alimentari.  

Il 29 marzo è stata pubblicata una lettera apertaCollegamento esterno che chiede di “sospendere i maxi esperimenti di IA” e che finora è stata firmata da più di 20’000 accademici, accademiche e leader nel campo tecnologico. Questo appello è atteso da tempo.   

Nell’ultimo decennio sono stati sviluppati in fretta e furia algoritmi impressionanti, distribuiti su larga scala, come ChatGPT e MidJourney. IA simili sono state ampiamente commercializzate per il rilevamento delle frodi, il filtraggio dei curriculum, la videosorveglianza e il servizio clienti (spesso nonostante le note carenzeCollegamento esterno e i pregiudiziCollegamento esterno). Ma la loro applicazione principale è probabilmente il marketing. Molti dei più grandi giganti tecnologici di oggi, come Google, TikTok e Meta, traggono profitto soprattutto dalla pubblicità mirata. Il fatto che il primo cliente conosciuto di ChatGPT sia stato nientemeno che Coca-Cola, dovrebbe già essere un segnale di allarme.  

Lê Nguyên Hoang è cofondatore e CEO della startup di cybersecurity Calicarpa, nonché cofondatore e presidente dell’associazione non profit Tournesol. Il canale YouTube di Hoang “Science4All” Collegamento esterno(Scienza per tutti/e) ha superato i 18 milioni di visualizzazioni dal suo lancio nel 2016. 

È stato dimostrato, inoltre, che gli algoritmi diffondono disinformazione, raccomandano pseudo-medicine, mettono in pericolo la salute mentaleCollegamento esterno e sono stati utilizzati per controllare mercati illegaliCollegamento esterno (persino la schiavitù). Hanno anche alimentato l’odio, aiutato a destabilizzare le democrazie e persino contribuito ai genocidiCollegamento esterno, come affermato dalle Nazioni Unite e da Amnesty International. Gli algoritmi minacciano la sicurezza nazionale.  

Eppure, il loro sviluppo è estremamente opaco. Quasi nessuna entità esterna può sbirciare gli algoritmi di Google, Meta o OpenAI. Le forze di opposizione interne sono state addirittura eliminate: Google ha licenziato il suo team di etica, Meta ha smantellato la squadra di innovazione responsabile e Microsoft ha licenziato il suo staff di etica dopo che questi aveva lanciato l’allarme su un’implementazione affrettata, amorale e insicura. Le potenti aziende in cerca di profitto sono riuscite a creare uno spazio mondiale in cui i loro algoritmi possono essere progettati senza quasi alcuna responsabilità. 

Altri sviluppi

È urgente una governance efficace dell’IA  

L’industria del software non è certo la prima a essere fuori controllo. Per decenni, le industrie aerea, automobilistica, farmaceutica, alimentare, del tabacco, delle costruzioni e dell’energia, e molte altre, hanno commercializzato prodotti non controllati. Questo è costato milioni di vite. Le società pubbliche si sono infine opposte all’allarmante mancanza di responsabilità. In tutte le democrazie, leggi severe e potenti agenzie di regolamentazione ben finanziate impongono ora un controllo democratico su questi mercati. L’industria del software ha bisogno di una sorveglianza simile.  

Dobbiamo urgentemente favorire tecnologie sicure ed etiche, piuttosto che chiedere ai nostri Paesi di guidare la corsa alle IA più appetibili. Concretamente, la potenza degli algoritmi che gestiscono le nostre reti intelligenti, le automobili, gli aerei, le centrali elettriche, le banche, i centri dati, i social network e gli smartphone dovrebbe essere molto meno importante della loro sicurezza informatica. Come abbiamo avvertito, io e il mio collega El Mahdi El Mhamdi, in un libro del 2019Collegamento esterno: se questi algoritmi sono fragili, vulnerabili, retrodatati o esternalizzati a un fornitore inaffidabile, o se abusano dei diritti umani – cosa che spesso accadeCollegamento esterno – allora siamo tutti in grave pericolo.   

“Dobbiamo urgentemente favorire tecnologie sicure ed etiche, piuttosto che chiedere ai nostri Paesi di guidare la corsa alle IA più appetibili.”

Tuttavia, l’industria del software e il mondo accademico, così come gli attuali incentivi legali ed economici, ostacolano soprattutto la mentalità della sicurezza. Troppo spesso i ricercatori e le ricercatrici più citati, più celebrati e più finanziati, le posizioni lavorative meglio retribuite e le aziende di maggior successo sono quelle che trascurano la sicurezza informatica e l’etica. Secondo un numero crescente di esperti ed esperte, questa situazione deve cambiare. Con urgenza.  

Le nostre democrazie probabilmente non possono permettersi i decenni necessari per istituire leggi e agenzie di controllo in altri settori. Considerato il ritmo con cui vengono sviluppati e utilizzati gli algoritmi più sofisticati, abbiamo solo una finestra di tempo molto piccola per agire. La lettera aperta firmata da me e da altri ricercatori e ricercatrici di IA mira a estendere leggermente questa finestra. 

Cosa potete fare voi, le vostre organizzazioni e le nostre istituzioni  

L’installazione di un controllo democratico sugli algoritmi attualmente più critici è un’impresa urgente, enorme e grandiosa che non sarà raggiunta a tempo debito senza la partecipazione di un gran numero di individui con talenti, competenze e responsabilità diverse.   

La prima sfida è l’attenzione. Dobbiamo tutti e tutte investire con urgenza molto più tempo, energia e fondi per assicurarci che i nostri colleghi e le nostre colleghe, le nostre organizzazioni e le nostre istituzioni prestino molta più attenzione alla sicurezza informatica. I e le dipendenti delle Big Tech non devono più essere invitati e celebrati, soprattutto nelle università e nei media, senza aver messo in discussione la sicurezza e l’etica dei prodotti che finanziano il loro lavoro. Più in generale, in tutte le discussioni sulla tecnologia bisogna chiedersi “cosa può andare storto?”.  

Una seconda sfida è quella istituzionale. Sebbene siano necessarie nuove leggi, è probabile che oggi gli algoritmi su larga scala stiano già violando le leggi esistenti, come nel caso dei profitti derivanti dalle truffeCollegamento esterno basate sugli annunci. Tuttavia, l’attuale mancanza di una supervisione esterna impedisce che venga fatta giustizia. Dobbiamo chiedere alla classe politica di istituire agenzie di regolamentazione ben finanziate per far rispettare la legge online.   

La Svizzera ha spesso svolto un ruolo esemplare nel definire le norme democratiche. Questa è un’opportunità per portare avanti una simile tradizione nobile. Inoltre, l’arco lemanico (l’area intorno al lago di Ginevra) punta a diventare una Trust ValleyCollegamento esterno nel campo della fiducia digitale e della cybersicurezza. Il rafforzamento delle organizzazioni di ispezione e di sicurezza informatica sarà probabilmente la chiave per essere considerati tali a livello mondiale.  

Una terza sfida consiste nel progettare alternative sicure, governate democraticamente, agli algoritmi odierni di maggiore impatto. È a questo che ho dedicato la maggior parte degli ultimi cinque anni: io e un gruppo di colleghi e colleghe abbiamo dato vita al progetto non profit Tournesol.Collegamento esterno In sostanza, l’algoritmo di Tournesol è il risultato di una votazione sicura ed equa sul suo comportamento preferito da parte della comunità che contribuisce a Tournesol, alla quale chiunque può unirsi.  

Quanto prima daremo la priorità alla sicurezza dei nostri ecosistemi informatici, tanto prima avremo la possibilità di proteggere le nostre società dall’enorme vulnerabilità della sicurezza informatica.  

A cura di Sabina Weiss

Traduzione dall’inglese: Sara Ibrahim

Le opinioni espresse in questo articolo sono esclusivamente quelle dell’autore e non riflettono necessariamente le opinioni di SWI swissinfo.ch.

L’esperto di IA Jürgen Schmidhuber pensa invece che chiedere una moratoria sullo sviluppo di IA potenti sia inutile e controproducente. Leggete la sua opinione: 

Altri sviluppi
Opinione

Altri sviluppi

Governi e aziende non fermeranno la corsa all’IA

Questo contenuto è stato pubblicato al Ricercatori e ricercatrici di intelligenza artificiale chiedono di sospendere “i maxi esperimenti di IA”, ma questo non succederà.

Di più Governi e aziende non fermeranno la corsa all’IA



In conformità con gli standard di JTI

Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative

Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.

Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR