The Swiss voice in the world since 1935

Discriminazioni con IA, commissioni federali mettono in guardia

donna davanti a schermata di dialogo con chatgpt
Keystone-SDA

In occasione di una conferenza a Berna due commissioni federali hanno chiesto a Governo e Parlamento, ma anche alla pubblica amministrazione e al mondo economico, di promuovere un utilizzo dell'intelligenza artificiale (IA) senza discriminazioni razziali e di genere.

(Keystone-ATS) L’intelligenza artificiale (IA) è ormai da tempo parte integrante della vita di tutti i giorni, sia essa privata o lavorativa. I sistemi algoritmici vengono ad esempio anche impiegati per la valutazione di candidature, la tassazione o per il riconoscimento biometrico e medico delle immagini.

L’utilizzo crescente di questi sistemi in ambiti delicati come la selezione del personale, l’accertamento fiscale o il riconoscimento delle immagini comporta rischi significativi di discriminazione, affermano la Commissione federale per le questioni femminili (CFQF) e la Commissione federale contro il razzismo (CFR). Entrambe si sono occupate della tematica della discriminazione razziale e di genere da parte dei sistemi algoritmici e oggi, in occasione di una conferenza a Berna, hanno presentato un parere giuridico e formulato le loro raccomandazioni.

Le tecnologie basate sull’IA tendono a riprodurre disparità sociali esistenti e presentano un elevato potenziale discriminatorio, mettono in guardia le due commissioni, le quali sottolineano come sia ormai provato scientificamente che i sistemi algoritmici riproducano discriminazioni fondate su caratteristiche come il genere, l’origine o lo stile di vita. I suoi effetti emergono, ad esempio, quando un sistema decide chi può ottenere un credito, chi viene invitato a un colloquio di lavoro o chi può accedere a prestazioni delle assicurazioni sociali.

Ad aprire i lavori quest’oggi alla conferenza è stata la consigliera federale Elisabeth Baume-Schneider, la quale ha richiamato la necessità di prendere sul serio i rischi connessi all’uso dell’IA, messi in evidenza delle commissioni, e di creare condizioni quadro che garantiscano un impiego privo di pregiudizi.

Il parere giuridico presentato dalla professoressa Nadja Braun Binder dell’Università di Basilea e dal professor Florent Thouvenin dell’Università di Zurigo ha messo in evidenza come anche in Svizzera vi sia un urgente bisogno di intervento per proteggere efficacemente le persone dalla discriminazione algoritmica.

Le raccomandazioni alla politica

La CFQF e la CFR hanno invitato Consiglio federale e Parlamento a dichiararsi apertamente a favore di un’IA non discriminatoria e hanno chiesto che la protezione dalle discriminazioni algoritmiche diventi una priorità assoluta nell’azione pubblica. I lavori della Confederazione, spiegano le commissioni, dovranno essere accompagnati da un comitato consultivo permanente e da risorse adeguate.

Le proposte includono inoltre l’adozione di una legge generale sulla parità di trattamento, adeguamenti alla legge sulla protezione dei dati, l’istituzione di un consultorio, la creazione di registri pubblici, l’introduzione di misure di tutela mirate e la promozione di sistemi di IA privi di discriminazione sia nell’amministrazione sia nell’economia. I due organi hanno inoltre chiesto di sostenere la ricerca interdisciplinare volta a prevenire questo genere di discriminazione algoritmica.

La CFQF e la CFR continueranno a seguire da vicino la questione, anche in vista del vertice sull’IA (“AI Summit”) che dovrebbe tenersi in Svizzera nel 2027, e informeranno sulle loro ulteriori attività a tempo debito.

Articoli più popolari

I più discussi

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR