Navigation

La macchina e la morale

Cosa succede se Google licenzia la sua etica

Jeff Dean, cofondatore di Google Brain e Senior Fellow di Google AI, presenta la nuova iniziativa di Google "AI for Social Good" (IA per il bene della società) all'evento AI for Social Good di Google a Sunnyvale, California, USA, 29 ottobre 2018. Keystone / Elijah Nouvelage

I giganti dell’high tech come Google non sono pienamente consapevoli del potere dei sistemi di intelligenza artificiale (IA) che stanno costruendo, secondo i ricercatori svizzeri che lavorano nel settore. Il recente licenziamento di un’esperta di etica di Google mette in dubbio che la costruzione di un’IA nel rispetto dei principi morali sia davvero tra le priorità dei Big Tech.

Questo contenuto è stato pubblicato il 29 marzo 2021 - 15:00

“Gli algoritmi su cui lavoriamo sono una questione di interesse pubblico, non affinità personali.” El Mahdi El Mhamdi, l'unico dipendente di Google Brain in Europa che lavora con il team di IA etica, ha commentato così su TwitterLink esterno il licenziamento su due piedi della sua manager Timnit Gebru, avvenuto a dicembre 2020. Google Brain è un team di ricerca di Google il cui obiettivo è quello di replicare il funzionamento del cervello umano utilizzando sistemi di deep learning.

Gebru è considerata una delle più brillanti ricercatrici nel campo dell’etica dell’intelligenza artificiale (IA). In un articoloLink esterno scritto con altri ricercatori, aveva messo in guardia sulla pericolosità dei modelli linguistici troppo vasti, alla base del motore di ricerca di Google e del suo business.

Timnit Gebru, la "paladina" dell’IA etica

Nata ad Addis Abeba (Etiopia) da genitori eritrei, Timnit Gebru arriva negli Stati Uniti all’età di 15 anni come rifugiata durante la guerra tra l’Etiopia e l’Eritrea. In seguito, viene ammessa alla Stanford University e ottiene un dottorato in computer vision (visione artificiale) presso lo Stanford Artificial Intelligence Laboratory.  La sua tesi di laurea sull’utilizzo di immagini pubbliche su larga scala per effettuare analisi sociologiche ottiene un certo successo, tanto da essere citata dal New York Times e dall’Economist. La consacrazione arriva quando pubblica in collaborazione con altri studiosi una ricerca rivoluzionaria, che dimostra l’inaccuratezza e la discriminazione dei sistemi di riconoscimento facciale nei confronti delle donne e delle persone di colore. È il 2018 e Gebru lavora per Microsoft Research. Quello stesso anno, passa a Google, che la sceglie come co-leader per costruire il team di IA etica.

End of insertion

Tali modelli, avvertiva Gebru nella sua ricerca al centro della polemica con il gigante di Mountain View, analizzano enormi quantità di testi su internet, per la maggior parte provenienti dal mondo occidentale, col rischio che il linguaggio razzista, sessista e offensivo del web finisca nei dati e venga riprodotto dal sistema. Google ha reagito all'articolo chiedendo a Gebru di ritirarlo e, di fronte al rifiuto della ricercatrice, l’ha licenziata.

Contenuto esterno

Come Timnit Gebru, anche altri ricercatori hanno scoperto ed evidenziato i rischi dell'evoluzione incontrollata dei sistemi di IA. Alexandros Kalousis, professore di Data Mining (estrazione dei dati) e Machine Learning presso l’Università di Scienze Applicate della Svizzera occidentale, dice che c’è un “elefante nella stanza”: "L'IA è ovunque e sta avanzando velocemente; tuttavia, molto spesso gli sviluppatori di strumenti e modelli di IA non sono veramente consapevoli di come questi si comporteranno quando saranno impiegati in contesti complessi del mondo reale", avverte. "La realizzazione delle conseguenze dannose arriva solo a posteriori, se mai arriva."

Contenuto esterno

Ma come ha dimostrato l'esperienza di Gebru, i ricercatori che prevedono queste conseguenze e sollevano segnali d'allarme non hanno sempre la vita facile nelle aziende per cui lavorano.

"Timnit Gebru è stata assunta da Google per occuparsi di etica dell'IA ed è stata licenziata perché si è occupata di etica dell'IA. Questo dimostra quanto l'azienda tenga davvero alle questioni etiche", dice Anna Jobin, ricercatrice presso l'Humboldt Institute of Internet and Society di Berlino ed esperta di etica delle nuove tecnologie. "Se Google tratta in questo modo anche una rinomata specialista di IA etica, come può sperare di diventare più etica?”

L’etica di facciata

Gebru era il simbolo di una nuova generazione di leader donne e nere in posizioni chiave negli ambienti dell’high-tech, ancora troppo dominati da uomini bianchi. Insieme alla collega Margaret Mitchell, anche lei allontanata dall’azienda a febbraio, era riuscita a costruire una squadra multiculturale per promuovere lo sviluppo etico e inclusivo dei sistemi di IA di Google.

La relazione controversa di Google con l'etica

Dopo aver esposto i propri principi di AI eticaLink esterno in una guida, nel 2019 Google aveva deciso di completare la propria struttura di governance interna istituendo un gruppo indipendente per sorvegliare lo sviluppo dei sistemi di intelligenza artificiale aziendali, l'Advanced Technology External Advisory Council (ATEAC).

"Questo gruppo prenderà in considerazione alcune delle sfide più complesse di Google che sorgono sotto i nostri principi di IA, come il riconoscimento facciale e l'equità nell'apprendimento automatico, fornendo prospettive diverse per orientare il nostro lavoro. Non vediamo l'ora di impegnarci con i membri dell'ATEAC su queste importanti questioni", aveva scritto nel blog di GoogleLink esterno Kent Walker, vicepresidente degli affari globali dell’azienda.

Peccato che il gruppo sia stato chiuso meno di due settimane dopo il suo lancio per via del clamore suscitato dalla nomina controversa di due membri del consiglio di amministrazione, una delle quali considerata una conservatrice "anti-trans, anti-LGBTQ e anti-immigrati", e dalle successive dimissioni di un altro membro.

End of insertion

Ma a meno che la questione sia gestita correttamente e tali team abbiano il potere di agire, Jobin pensa che "’IA etica può essere una forza non etica," un’etichetta di pura apparenza per mascherare in modo ingannevole la sete di business, che è in realtà in aperto contrasto con i principi morali. Come nel caso del “green washing”, si potrebbe parlare di “ethics washing”, e cioè di etica di facciata. “Sarebbe a dire: siamo etici, per cui smettetela di importunarci”, spiega la ricercatrice.

Burak Emir, che lavora come Senior Staff Software Engineer per Google a Zurigo da 13 anni, è arrivato a mettere in discussione le finalità della ricerca etica della società dopo il licenziamento di Gebru.

“Perché abbiamo un dipartimento di etica se si possono scrivere solo belle parole?”, si chiede l’ingegnere. E continua: “Se l’obiettivo è quello di pubblicare solo ricerche carine e buoniste, allora che non si dica che lo si fa per aumentare la conoscenza. Ci vuole più trasparenza.”

Molti scienziati e ricercatori hanno espresso la loro solidarietà con Gebru, compresi alcuni che vivono e lavorano in Svizzera. Il più grande centro di ricerca di Google fuori dagli Stati Uniti si trova a Zurigo e si occupa, tra le altre cose, di machine learning e di intelligenza artificiale. Emir è uno degli oltre 2’600 dipendenti dell'azienda che hanno firmato una petizione a sostegno di GebruLink esterno, mettendo in discussione l'approccio dell'azienda in materia di etica dell’IA.

L’abito non fa il monaco

Dal canto suo, però, il gigante del tech si è difeso negando di aver “censurato” Gebru. Quando SWI swissinfo.ch ha contattato Google Svizzera, il suo ufficio di comunicazione ci ha rimandato alle dichiarazioni ufficiali rilasciate in precedenza dai dirigenti dell’azienda. Una di queste dichiarazioniLink esterno era di Jeff Dean, capo di Google AI, il quale ha affermato che la ricerca co-firmata da Gebru “non corrispondeva agli standard di qualità” e che l’azienda non l’ha licenziata ma ha accettato le sue dimissioni (che Gebru dice di non aver mai presentato).

Contenuto esterno
Contenuto esterno

Roberta Fischli, ricercatrice presso l’Università di San Gallo, sostiene che l’immagine di Google ha sicuramente sofferto all’interno della comunità di etica e IA dopo il caso Gebru. Anche lei ha firmato la petizione a sostegno dell’ex ricercatrice di Google. Fischli pensa che il conflitto di interessi sia inevitabile quando si porta avanti una ricerca che mette in discussione le pratiche aziendali esistenti.

"In teoria, alla maggior parte delle aziende piace avere ricercatori critici. Ma in pratica, ciò porta inavvertitamente a uno scontro di interessi se i ricercatori iniziano a criticare il loro datore di lavoro", dice. Fischli nota che i ricercatori che puntano a innovare il campo dell'etica dell'IA spesso non hanno molta scelta e finiscono in aziende private perché è lì che si concentrano le maggiori risorse. “E cercano così di comprendere meglio certi meccanismi e di cambiare le cose dall’interno, il che non finisce sempre bene.”

Anche se il colosso del web ha continuato a fare affari apparentemente indisturbato in seguito al licenziamento di Gebru, qualcosa si sta muovendo. Un gruppo di dipendenti dell’azienda negli USA ha dato vita a gennaio al primo sindacato della storia all’interno di una grande multinazionale tecnologica, l’Alphabet Workers UnionLink esterno. In seguito, i dipendenti di Google in tutto il mondo si sono uniti per formare un’alleanza sindacale globale in 10 Paesi, tra cui il Regno Unito e la Svizzera.

L’elefante nella stanza

La realtà, però, è che l’influenza di Google e dei cosiddetti GAFA (acronimo per Google, Amazon, Facebook e Apple) si estende ben oltre i confini dei loro uffici. Quello che questi giganti della tecnologia pianificano e mettono in pratica detta anche l'agenda della ricerca accademica globale. "Nelle grandi istituzioni accademiche, è difficile trovare ricerche che non siano collegate o addirittura finanziate dalle grandi aziende tecnologiche", dice Alexandros Kalousis dell’Università di Scienze Applicate della Svizzera occidentale.

Eppure, proprio per via di questa influenza, sarebbe molto importante avere voci indipendenti e “fuori dal coro” che mettano l’accento sui pericoli dello sfruttamento incontrollato dei dati da parte dei giganti della tecnologia, sostiene il professore.

“Questo è il grande problema della nostra società”, avverte Kalousis. “Le discussioni sull’etica talvolta possono essere una distrazione” da questo controllo pervasivo da parte dei giganti dell’high-tech.

La ricerca può essere indipendente come dovrebbe per mettere in discussione in maniera obiettiva i rischi di una diffusione su larga scala delle tecnologie di IA? Non proprio, sembra. Il problema va oltre Google e riguarda tutte le aziende sul mercato che stanno implementando sistemi di IA senza regole e limiti. Per noi, questo significa che la tecnologia sta dettando ciò che è eticamente accettabile e ciò che non lo è e questo sta plasmando le nostre vite e il nostro modo di pensare.

Contenuto esterno

Articoli menzionati

Condividi questo articolo

Partecipa alla discussione!

Con un account SWI avete la possibilità di contribuire con commenti sul nostro sito web e sull'app SWI plus, disponibile prossimamente.

Effettuate il login o registratevi qui.