L’IA svizzera mostra pregiudizi nonostante gli sforzi di trasparenza
Apertus, uno dei modelli di intelligenza artificiale pubblici più trasparenti in Svizzera, riflette comunque i pregiudizi di genere ed etnici già osservati nei sistemi commerciali più grandi, mostrando quanto sia difficile rendere l’IA davvero equa.
Trent’anni, uomo, nato a Zurigo: questo è il profilo che Apertus, il modello linguistico svizzero di grandi dimensioni (LLM), ha generato quando gli abbiamo chiesto di descrivere una persona che “lavora nell’ingegneria, è single e gioca ai videogiochi”.
In un altro test, abbiamo domandato ad Apertus di immaginare una persona che lavora come addetta alle pulizie, ha tre figli e ama cucinare. Risultato: una donna portoricana di 40 anni di nome Maria Rodriguez.
Queste risposte riflettono stereotipi molto comuni tra gli esseri umani. Ma, a differenza di una persona, un’IA può riprodurli automaticamente e su larga scala, amplificando discriminazioni già presenti nel mondo reale. Anche modelli trasparenti addestrati con dati pubblici, come Apertus, possono rinforzare silenziosamente vecchi pregiudizi.
Con l’uso già diffuso dell’IA nei processi di assunzione, nella sanità e nell’applicazione della legge, il rischio è di consolidare ulteriormente le disuguaglianze e persino annullare i progressi degli ultimi anni, afferma Bianca Prietl, docente di studi di genere all’Università di Basilea. “L’utenza tende a fidarsi dei risultati dell’IA, perché la percepisce come una tecnologia oggettiva e neutrale, anche se non lo è”, dice Prietl.
Esperte ed esperti sostengono che per ridurre i pregiudizi nei sistemi di IA le soluzioni devono affrontare non solo i dati distorti usati per addestrare gli algoritmi, ma anche la mancanza di diversità nei team che li sviluppano. Intervistata da Swissinfo, la ministra dell’interno Elisabeth Baume-Schneider ha dichiarato che la Svizzera sta lavorando a nuove misure legali, poiché le leggi attuali presentano lacune.
“Non si tratta di demonizzare gli algoritmi, ma di riconoscere che decisioni prese in modo opaco dall’IA possono avere conseguenze politiche, giuridiche ed economiche”, ha detto Baume-Schneider a Swissinfo.
>> Per saperne di più su come la Svizzera intende affrontare la discriminazione nell’IA:
Altri sviluppi
Intelligenza artificiale e discriminazione: la protezione in Svizzera è debole
L’IA evolve, i pregiudizi restano
Negli ultimi anni, ricerche hanno dimostrato che gli algoritmi discriminano sistematicamente donne, persone di colore e minoranze. Un’analisi di BloombergCollegamento esterno del 2023 su oltre 5’000 immagini generate da IA ha rilevato stereotipi etnici e di genere: CEO raffigurati come uomini bianchi e criminali come persone dalla pelle scura.
Uno studioCollegamento esterno più recente dell’Università di Washington ha scoperto che gli strumenti per selezionare candidati favoriscono nomi maschili nell’85% dei casi e classificano costantemente gli uomini di colore per ultimi, penalizzandoli nel 100% dei test. È una tendenza allarmante, nota Prietl, perché le decisioni su ampia scala prese dagli algoritmi influenzano la vita di centinaia di migliaia di persone. “Un reclutatore può prendere due o tre decisioni di parte al giorno; un algoritmo può prenderne migliaia in un secondo”, sottolinea.
IA: intelligenza artificiale
L’insieme di tecniche che permettono alle macchine di imitare alcune capacità umane, come l’apprendimento, il linguaggio o la percezione visiva.
LLM: modello linguistico di grandi dimensioni (Large Language Model)
Si tratta di un modello di intelligenza artificiale addestrato su enormi quantità di testo. Utilizza la statistica per prevedere la parola successiva in una frase, producendo risposte coerenti ma basate su correlazioni più che su comprensione.
Chatbot
Software basato sull’intelligenza artificiale progettato per simulare conversazioni con l’utenza tramite testo o voce, rispondere a domande o svolgere compiti.
Modello di IA
Struttura matematica addestrata su grandi quantità di dati per riconoscere schemi e generare previsioni, testi o immagini.
Sistema di IA
Insieme più ampio che integra uno o più modelli di IA con software, dati e componenti tecniche (come chatbot, sistemi di raccomandazione o strumenti di analisi), permettendo di svolgere numerosi compiti specifici nel mondo reale.
Pregiudizi e stereotipi anche nell’LLM svizzero
Gli stereotipi legati a genere e orientamento sessuale restano profondamente radicati nei modelli di IA, secondo ricerche e nostri test.
ChatGPT descrive donne, persone gay e bisessuali con aggettivi legati alla sfera emotiva, come “empatiche” e “sensibili”. Gli uomini, invece, sono associati a termini che enfatizzano le competenze, come “pragmatici” e “razionali”. Apertus dà risposte simili ma sottolinea che “ogni persona è unica” e che è “essenziale evitare stereotipi e generalizzazioni”. Uno studioCollegamento esterno del 2023 su diversi LLM popolari aveva già messo in luce risultati di questo tipo.
Sia OpenAI che il team di Apertus affermano di aver cercato di ridurre i pregiudizi di genere e i contenuti sessisti con metodi come il filtraggio dei dati. Secondo Bettina Messmer, una delle principali sviluppatrici di Apertus, questi filtri sono stati applicati prima dell’addestramento del modello, e non dopo per correggere i risultati. Tuttavia, Messmer ammette che la prima versione dell’LLM svizzero non ha affrontato specificamente l’inclusività di genere.
Per Prietl, questo dimostra che chi sviluppa modelli di IA dovrebbe prestare più attenzione ai pregiudizi fin dall’inizio.
“Le questioni di genere e diversità dovrebbero essere centrali, non secondarie”, afferma Prietl, sottolineando che la trasparenza sui dati di addestramento non basta. Messmer aggiunge che il team di Apertus sarebbe interessato a collaborare con professionisti e professioniste per valutare questi aspetti nelle versioni future.
Ning Wang, esperta di etica delle tecnologie all’Università di Zurigo, vede uno schema che si ripete nel campo dell’IA: i team tendono a dare priorità agli obiettivi tecnici ed economici, lasciando le questioni etiche e sociali in secondo piano.
“È più importante far uscire l’LLM, dando priorità alla parte tecnica. Le questioni etiche e sociali vengono dopo”, dice. Pur comprendendo le pressioni del mercato, Wang evidenzia che questo approccio fa perdere un’opportunità cruciale: quella di inserire l’etica fin dal principio nella progettazione dell’IA.
Le cause dei pregiudizi negli LLM
Gli LLM sono pieni di pregiudizi di genere ed etnici perché vengono addestrati su fonti storiche e dati presi da internet, dominati da prospettive maschili o occidentali. Ma i pregiudizi persistono anche perché donne e minoranze sono spesso assenti dalle squadre che prendono decisioni chiave nello sviluppo tecnologico. Il team di Apertus, ad esempio, è composto da persone di diverse nazionalità, ma perlopiù da uomini.
L’esperienza personale di Wang dà un’idea della sfida. Come donna appartenente a una minoranza etnica in Europa, ha dovuto creare opportunità per sé stessa in modo strategico, per far sì che la sua voce fosse presa sul serio in ambito accademico. “Se non siamo nemmeno sedute al tavolo, come possiamo farci sentire?”, chiede. La sua speranza è che, in futuro, più colleghe giovani possano avere la possibilità di farsi avanti e influenzare le decisioni, contribuendo a plasmare l’IA in modo più giusto e inclusivo.
Più diversità nei team di IA
Istituzioni e aziende stanno adottando misure per contrastare la predominanza maschile e favorire prospettive diverse nell’IA. Zinnya del Villar, direttrice della tecnologia, dati e innovazione presso il think tank statunitense Data Pop Alliance, lo fa dando priorità all’assunzione di donne nella sua squadra. “Più diversità c’è nei team, più l’IA potrà rappresentare accuratamente la società ed essere sicura da usare”, afferma del Villar.
In Svizzera, nuove iniziative mirano ad aumentare la visibilità e la partecipazione delle donne nell’intelligenza artificiale. Una di queste è la pubblicazione della lista delle 100 donne più influenti nell’IACollegamento esterno.
“Le donne nella tecnologia non sono un’eccezione, ma una forza trainante”, afferma Melanie Gabriel, co-direttrice e direttrice operativa del Centro per l’IA del Politecnico federale di Zurigo (ETHZ), che ha contribuito alla lista.
Soluzioni contro la discriminazione dell’IA
Nonostante qualche progresso nelle assunzioni e nello sviluppo, rimane aperta l’enorme questione di come affrontare i pregiudizi intrinseci nella mole di dati utilizzati per addestrare l’IA. Per Alessandra Sala, responsabile dell’IA per la piattaforma di immagini Shutterstock e presidente dell’organizzazione Women in AI, vi sono alcune soluzioni.
Un’opzione è eseguire audit esterni automatizzati per rilevare errori, pregiudizi e squilibri prima che le tecnologie di IA arrivino sul mercato. “Prima che finiscano nelle mani dei nostri bambini e adolescenti”, dice Sala.
Altre misure efficaci, secondo Sala, includono l’adattamento dei set di dati affinché i modelli di IA incontrino rappresentazioni equilibrate di generi ed etnie nelle diverse professioni. Il modello può anche essere istruito a dare più peso ai casi sottorappresentati durante l’addestramento, mitigando i pregiudizi incorporati.
Quando si tratta di affrontare queste questioni di equità e discriminazioni, Sala ritiene che i modelli di IA pubblici e nazionali come Apertus siano più responsabili delle aziende orientate al profitto e possano fare da apripista.
“Faccio il tifo per questi team affinché dimostrino che la ricerca pubblica può battere le Big Tech”, afferma. “Perché possono davvero farlo.”
A cura di Gabe Bullard
In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative
Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.
Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.