L’intelligenza artificiale è davvero una risorsa per la democrazia?
Mentre nel suo Paese le grandi aziende tecnologiche dominano il panorama dell'intelligenza artificiale, l'esperto di sicurezza informatica statunitense Bruce Schneier guarda con speranza alla Svizzera. Anche nella Confederazione c'è ottimismo: un'esperta elvetica ritiene che l'IA diventerà parte integrante delle istituzioni democratiche.
“Qualcuno viene dalla Svizzera?”, ha chiesto Bruce Schneier al pubblico del World Forum for DemocracyCollegamento esterno di Strasburgo lo scorso novembre. L’esperto di sicurezza informatica statunitense, docente della Harvard Kennedy School, ha parlato di IA e democrazia e ha fatto ripetutamente riferimento alla Svizzera: all’idea di una “democrazia assistita“, nata al Politecnico federale di Zurigo (ETHZ), ma soprattutto ad Apertus, il modello linguistico sviluppato dall’ETHZ e dal Politecnico federale di Losanna (EPFL).
“Senza interessi di profitto e dati rubati”, il modello di IA svizzero dimostrerebbe che è possibile realizzare un’IA in favore del bene comune.
“Credo che abbiamo molti problemi con la democrazia. Non sono problemi causati dall’IA, ma spesso sono problemi che l’IA ha aggravato”, afferma Schneier quando lo contattiamo telefonicamente nel gennaio 2026. “La domanda è: ci sono modi per utilizzarla a favore di una maggiore democrazia? Penso che la risposta sia sì. Ma dobbiamo anche farlo”.
Recentemente, sulla rivista Time MagazineCollegamento esterno, Schneier ha fatto un paragone con le ferrovie del XIX secolo: all’epoca, le nuove linee ferroviarie negli Stati Uniti avrebbero potuto “collegare chi era separato” e garantire un accesso equo al potere, ma invece hanno reso poche persone incredibilmente ricche. “Le ferrovie sono oggi un’infrastruttura pubblica, proprio come l’IA. Ognuno di noi le usa per scopi diversi. Ecco perché Apertus è così potente: è una piattaforma su cui tutti si possono basare”, spiega.
È un esempio del fatto che la tecnologia può esistere anche senza le grandi aziende. “È possibile avere modelli di IA che non siano costruiti da un gruppo di uomini miliardari e bianchi del settore tecnologico con l’intento di trarne profitto?”, si chiede retoricamente Schneier. Un piccolo Paese ha dimostrato che lo si può fare. “I costi stanno diminuendo e si vedranno sempre più modelli di questo tipo”, spiega. I singoli modelli linguistici tendono a diventare “ampiamente intercambiabili” e, di conseguenza, molti utilizzeranno modelli aperti come Apertus o Sea LionCollegamento esterno di Singapore, secondo Schneier.
>>Il nostro articolo in cui spieghiamo il modello linguistico elvetico Apertus
Altri sviluppi
Vero o falso? Fatti e fandonie sul modello svizzero di intelligenza artificiale Apertus
Che i servizi di IA vengano introdotti dalle istituzioni o nascano da iniziative civiche non è determinante per la loro importanza per la democrazia. Le macchine da scrivere sono utilizzate sia all’interno che all’esterno delle istituzioni. “La piattaforma Grammarly per il controllo ortografico viene utilizzata per correggere cose nella democrazia”, afferma Schneier.
Alla domanda se la mancanza di fiducia nell’IA possa avere un impatto negativo sulla democrazia, l’esperto risponde: “Tutti utilizzano l’IA per ottenere indicazioni stradali sul cellulare”. Nessuno si pone davvero la questione della fiducia. “La fiducia reale rimane sullo sfondo”, dice Schneier.
Pessimismo nel presente, ottimismo per il futuro
Occorre piuttosto valutare a quale IA ci si affida. “La fiducia pubblica nei confronti dell’IA basata su determinati modelli di business può essere scarsa. Personalmente non mi fiderei affatto di Facebook. Ma ci si fida dell’IA che analizza le proprie radiografie. I medici la utilizzano perché è più efficace”. Questa è l’essenza della fiducia. “Se l’IA provoca danni, date la colpa alle aziende! Non date la colpa alla tecnologia!”. La causa risiede nelle decisioni aziendali.
A Strasburgo Schneier si è mostrato entusiasta. Lo stesso vale per i suoi articoli sul futuro pubblicati su Time MagazineCollegamento esterno. Quando nel maggio 2025 ha parlato davanti alla commissione di vigilanza del CongressoCollegamento esterno degli Stati Uniti, il tono era diverso: “I quattro oratori che mi hanno preceduto hanno parlato delle promesse di questa tecnologia. Io vorrei parlare delle conseguenze per la sicurezza nazionale, di come il nostro Paese collega i dati e li inserisce nei modelli di IA”.
Schneier ha spiegato come i collaboratori DOGE dell’amministrazione Trump abbiano sottratto dati dai database e “li offrano ad aziende private come Palantir”. “Queste azioni causano danni irreparabili alla sicurezza del nostro Paese e alla sicurezza di tutti, compresi tutti i presenti in questa sala, indipendentemente dalla loro appartenenza politica”, ha dichiarato. Quando Schneier parla del presente, è critico. Il suo ottimismo è soprattutto un appello per il futuro.
In Svizzera, Paese di provenienza di Apertus, la fiducia nella IA da parte della popolazione è scarsa. Secondo lo studio sull’e-government 2025Collegamento esterno, il 23% della popolazione svizzera desidera che l’IA venga utilizzata nell’amministrazione solo in casi eccezionali e il 40% solo laddove vi sia un chiaro valore aggiunto. Nello studio Sicherheit 25Collegamento esterno dell’ETHZ di Zurigo, l’IA è all’ultimo posto in termini di fiducia sociale. Il valore di 4,3 (su 10) è sceso di 0,3 punti rispetto all’anno precedente.
Gli Stati democratici dovrebbero cooperare nel settore dell’intelligenza artificiale
Eppure, anche in Svizzera c’è ottimismo per il futuro. Dirk Helbing, professore di scienze sociali computazionali all’Università di Zurigo, ritiene che “la strada intrapresa con Apertus dovrebbe essere perseguita con coerenza”. Potrebbe essere ampliata con “motori di ricerca e piattaforme che promuovono la democrazia nell’ambito di progetti della società civile”.
Apertus potrebbe “forse addirittura diventare un prodotto di esportazione di successo”. Helbing ritiene che le cooperazioni internazionali potrebbero essere utili per l’ulteriore sviluppo di Apertus. Nel campo dell’IA, raccomanda in generale “cooperazioni con paesi democratici che si impegnano a rispettare i diritti umani” e cita il Giappone, la Corea del Sud, Taiwan e l’India.
D’altra parte, l’IA potrebbe anche stabilizzare un regime basato sulla sorveglianza di massa nelle dittature, con ripercussioni transnazionali.
Perché l’IA può essere pericolosa per la democrazia
Il fatto che le democrazie nel mondo non siano in buone condizioni ha anche “a che fare con la strada che la digitalizzazione e l’IA hanno recentemente intrapreso”. “Le aziende vogliono mercati il più ampi possibile, ma molte persone non vivono in democrazie. Il software sviluppato per i sistemi autocratici influisce anche su quello utilizzato qui”, afferma Helbing.
È noto che i modelli linguistici “possono manipolarci in modo molto più efficace rispetto a quel che possono fare le persone”. Inoltre, gli stessi sistemi che “oggi vanno bene” domani potrebbero già basarsi su un algoritmo diverso.
Helbing elenca molte ragioni per essere pessimisti, ma allo stesso tempo si definisce “ottimista”, perché “alla fine deve andare bene, altrimenti avremmo davvero rovinato tutto per molto, molto tempo“.
Purtroppo, il modo in cui la digitalizzazione può contribuire alla libertà, ai diritti umani e alla democrazia è “meno studiato”. È necessario sostenere “iniziative della società civile” come “open data, open source, open access, hackathon, maker space e citizen science, nonché il bilancio partecipativo” e promuovere “l’informazione sull’abuso di potere e sulle possibilità di abuso delle tecnologie digitali”.
“Tutto ciò che consente alle persone di occuparsi maggiormente del proprio destino dovrebbe essere sostenuto”, afferma Helbing, introducendo così un principio guida della società liberale nell’era dell’IA. La scienza può dare un grande contributo, ma Helbing ritiene che la politica debba “finalmente” agire: “Noi esseri umani siamo trasformati in miniere di dati, i nostri diritti umani sono limitati. Bisogna contrastare questa tendenza!”
>>Il nostro articolo, in cui spieghiamo l’idea di una democrazia assistita, menzionata anche da Bruce Schneier
Altri sviluppi
Gemelli digitali, il futuro della democrazia in Svizzera e non solo
Quando l’intelligenza artificiale raccoglie dati e diffonde bias
Anche Laetitia Ramelet, filosofa politica che si occupa delle conseguenze della tecnologia sulla società presso la fondazione svizzera TA-Swiss, è consapevole dei rischi. L’uso dell’IA “per analizzare il nostro comportamento e le nostre preferenze” è attualmente la sua principale preoccupazione in termini di democrazia.
I consigli personalizzati e una valanga di contenuti possono essere utilizzati da “professionisti che padroneggiano bene tali metodi […] per influenzare sottilmente le persone”.
Anche nella progettazione di campagne referendarie ed elettorali l’IA ha già, secondo Ramelet, un impatto diretto sulla democrazia. “Due cose si possono dire con certezza, perché sono state dimostrate più volte: i testi scritti dall’IA possono essere molto convincenti e la forza di persuasione ha un grande impatto in una democrazia”, nota.
I modelli di IA moltiplicherebbero i pregiudizi, le distorsioni e la tendenza all’uniformità, almeno in assenza di misure preventive. Ramelet, che ha studiato a fondo i deepfake, vede naturalmente anche i numerosi contenuti falsi e fuorvianti generati rapidamente come un rischio per l’informazione e l’orientamento in una democrazia.
Oltre alle interazioni, Ramelet prevede che i servizi di IA diventeranno parte integrante delle istituzioni democratiche. Ci sono “molti progetti in corso” e “iniziative in questo senso”. Nel settore pubblico svizzero, almeno, osserva che i diritti fondamentali, la protezione dei dati e il controllo vengono “presi sul serio”.
L’attuale Governo degli Stati Uniti non si preoccupa di queste cose. “Sì, il Governo continuerà a utilizzare l’IA per smantellare la democrazia, perché questo è il suo obiettivo”, afferma Bruce Schneier. “E le persone che vi si oppongono useranno l’IA per la democrazia”. A suo avvio, l’IA non cambia l’equilibrio, ma dà più potere a entrambe le parti.
A cura di Marc Leutenegger
Tradotto da Andrea Tognina
In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative
Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.
Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.