Navigazione

Saltare la navigazione

Funzionalità principali

Verifica dei fatti La lotta alle false notizie si prospetta lunga

Ricercatori svizzeri ed europei stanno lavorando ad algoritmi che aiutino a individuare le notizie false che circolano sui social media, ma insegnare alle macchine questo lavoro non è facile.



Quartier generale di Facebook a Menlo Park, California: il gigante della tecnologia sta testando delle misure contro il proliferare di notizie false, ma il successo dell'operazione è tutto da verificare.

Quartier generale di Facebook a Menlo Park, California: il gigante della tecnologia sta testando delle misure contro il proliferare di notizie false, ma il successo dell'operazione è tutto da verificare.

(Keystone)

Il tema della disinformazione è finito sotto i riflettori dei media di tutto il mondo nel 2016, specialmente dopo le accuse secondo le quali le false notizie che circolavano su Facebook avrebbero aiutato Donald Trump a entrare alla Casa BiancaLink esterno. Dopo aver inizialmente negato che le menzogne avessero influenzato i votanti, il social network più popolare del mondo ha cominciato a testare delle misure Link esternoper limitarne la diffusione.

Dai giganti come Google fino ai solitari nerd della tecnologia, in molti stanno iniziando a ingegnarsi per contrastare questo fenomeno. Ma chi ha cominciato a studiare la crescita della disinformazione molto prima dei risultati inaspettati delle elezioni presidenziali statunitensiLink esterno mette in guardia gli esperti, indicando che lotta alle false notizie sarà difficile.  

“È una corsa tra le macchine e le persone che fabbricano informazioni per denaro, ragioni politiche o semplice divertimento” dice Kalina Bontcheva, professoressa all’Università di Sheffield, nel Regno Unito.

Il lavoro degli informatici come lei e delle piattaforme d’informazione, swissinfo.ch incluso, rivela quanto sia difficile limitare concretamente la diffusione di bugie e distorsioni della realtà sui social media. 

Individuare le false informazioni

Il piano d’azione annunciato da Zuckerberg per ridimensionare il diffondersi di false notizie include “un più forte potere d’individuazione… per migliorare la nostra abilità di classificare la disinformazione”. Bontcheva paragona la tecnologia che permette di farlo con i filtri spam per la posta elettronica. Ma i suoi poteri sarebbero probabilmente limitati.

Notizie false “made in Switzerland”

Siti di notizie fasulle sono spuntati anche in Svizzera ma sono pochi e Linards Udris spiega che la loro portata è limitata, forse anche a causa delle dimensioni del paese.

“Non sarebbe possibile guadagnare denaro grazie alle notizie false” qui, poiché il mercato dell’informazione è relativamente piccolo, dice il ricercatore dell’università di Zurigo.

Un altro probabile fattore, dice, è il basso livello di polarizzazione della politica elvetica. Essere estremamente di parte, infatti, è una caratteristica di molti siti di notizie false, in modo particolare negli Stati Uniti.

Udris mette tuttavia in guardia sul fatto che la polarizzazione sta crescendo in Svizzera e, dato che sempre più persone accedono alle notizie sui social media, gli esperti dovranno seguire con attenzione l’evolversi del panorama dell’informazione.

Fine della finestrella

“I siti di notizie fasulle creati per fare soldi sono facili da individuare”, dice. “I più difficili, anche per le macchine, sono invece quelli più discreti, che contengono affermazioni con uno scopo nascosto”.

Bontcheva è la responsabile di un progetto di ricerca che si confronta con questo problema. Battezzato Pheme e finanziato dalla Commissione Europea, riunisce un gruppo di esperti informatici, università e swissinfo.ch per ideare delle tecnologie che possano aiutare i giornalisti a verificare la veridicità di quanto letto online.

“Proviamo ad utilizzare molte delle dicerie circolate in passato per sviluppare degli algoritmi”, spiega Bontcheva. “Stiamo creando dei modelli per calcolare la probabilità che un’affermazione sia vera basandoci sulle opinioni degli utenti”.

Le macchine stanno imparando, ma lentamente

Insegnare a una macchina a fornire una chiara indicazione sulla veridicità di un testo è però molto complesso. Gli scienziati devono utilizzare diversi approcci, scavando nella storia dei social network e nei contenuti dei singoli post al fine di ottenere uno schema più ampio sui contenuti credibili e su quelli dubbi, spiega il data scientist Pierre Vandergheynst.

“Nessuno è ancora riuscito a sciogliere questo nodo”, dice il professore del Politecnico federale di Losanna (EPFL), che studia il modo in cui l’informazione evolve su piattaforme come Wikipedia. “Quando leggi un testo decidi se ti puoi fidare, ma una macchina non ha le facoltà cognitive necessarie per farlo”.

Bontcheva ammette che lo sviluppo di questa tecnologia è ancora alle fasi iniziali.

“Sperimentazioni sono in corso da tre anni ma siamo ancora lontani dal livello di affidabilità di cui abbiamo bisogno”. Ma crede tuttavia che i ricercatori di Pheme abbiano fatto progressi da quando il progetto è cominciato.

“La tecnologia sta migliorando e siamo all’avanguardia”, dice, aggiungendo che i partner del progetto hanno anche contribuito fornendo una grande quantità di dati. “Quando abbiamo cominciato non c’erano così tante dicerie che circolavano sui social network da poter usare come materiale”.

È vero che i ricercatori sono confrontati spesso al problema della mancanza di accesso ai dati posseduti da Facebook e da altri social network. Ma l’ammontare di informazioni che questi giganti della tecnologia devono gestire è un problema anche per loro, dice Bontcheva. Ciò significa che devono sviluppare dei sistemi in grado di trovare i contenuti sospetti all’interno dell’enorme numero di post che gli utenti condividono ogni giorno..

Non tutti gli strumenti sono stati creati uguali

Oltre a Facebook e a Google, che hanno annunciato dei piani per ridurre le false notizie, anche diversi esperti di tecnologia stanno tentando di combattere la disinformazione online. Tra le soluzioni proposte nel 2016 troviamo uno strumento chiamato “BS detector” sviluppato da un ingegnere informatico negli Stati Uniti. Daniel Sieradski ha detto alla stampa di aver creato un plug-in per i browser, che “in circa un’ora” individua e segnala fonti sospette di notizie sulla base di una lista di siti noti per essere menzogneri.

Questo metodo è simile al sistema di filtraggio degli spam, dice il data scientist Pierre Vandergheynst, ma ha dei punti deboli.

“Bisogna avere una lista completa di tutti i potenziali siti di notizie false” affinché il plug-in sia efficace. E anche se fosse il caso, non riuscirebbe a verificare le dicerie nate dagli utenti dei social media senza nessun legame con questi siti. 

Fine della finestrella

Censura

Un altro problema è come mantenere alta la fiducia degli utenti in un sistema che decide automaticamente quali post contengono informazioni false.

“Le compagnie dovranno essere completamente trasparenti sul modo in cui giudicheranno se un sito contiene falsità”, dice Linards Udris, esperto svizzero dei media all’Università di Zurigo.

Bontcheva è d’accordo e ritiene che per evitare le accuse di censura Facebook dovrebbe fornire ai suoi utenti la possibilità di consultare i contenuti sospetti separatamente, in un modo analogo alla cartella spam per la posta elettronica. L'approccio di Facebook è diverso, con un sistema che permette di valutare le notizie "controverse" e avverte gli utenti quando le condividono.

Il rischio di censura limita anche la possibilità degli stati di intervenire. Udris non vede il motivo di introdurre delle nuove leggi, facendo notare che le norme sulla diffamazione – almeno in Svizzera – sono un modo per gestire i casi di affermazioni fasulle. Ma i governi potrebbero concentrare la propria attenzione altrove.

“Le aziende tecnologiche hanno pochi incentivi commerciali” per limitare le false notizie, dice Udris, vicedirettore dell’Istituto di ricerca per la sfera pubblica e la società (fög). Quando delle storie diventano virali, generano profitto per le piattaforme social anche se sono false. Lo stato potrebbe ad esempio offrire vantaggi fiscali alle aziende che adottano misure contro la disinformazione.

Il fattore umano

Altri attori devono essere coinvolti. Per eradicare i post menzogneri, Facebook sta provando a sfruttare l'aiuto degli utenti e di terze parti, inclusi i media e le organizzazioni di verifica dei fatti. Ma i giornalisti stessi devono essere parte della soluzione.

“È un problema quando siti autorevoli trovano e diffondono una notizia falsa”, dice Pierre Vandergheynst. “In quel momento la notizia ottiene il sigillo dell’autenticità. È un ciclo che va interrotto”.

dossier Fact checking di swissinfo.ch

Vi capita mai di sentire una dichiarazione di un politico o di leggere un'affermazione su un manifesto per una votazione e di chiedervi: "Ma è ...

Mentre i media, per rimanere a galla, devono effettuare tagli alle risorse, Udris vorrebbe "assistere ad un dibattito più ampio sulla promozione di un buon giornalismo in seno alla società”. I servizi d’informazione pubblici sono cruciali, aggiunge.

“Sono una delle colonne portanti presso la quale la gente può ottenere informazioni di qualità, diversificate e verificate.”

L’onere è anche degli utenti di internet che devono diventare consumatori più critici e giudiziosi. Udris cita degli studi che dimostrerebbero che meno della metà delle persone che utilizzano i social media per informarsi prestano attenzione alle fonti della notizia che stanno leggendo.

“Ci vuole una mentalità critica”, dice, suggerendo che i giovani devono essere educati in modo più efficace sui media. Secondo un recente studio dell’Istituto ReutersLink esterno, le generazioni più giovani hanno una maggiore tendenza a leggere le notizie sui social network. Udris ritiene inoltre che una forma di pagamento per le notizie online potrebbe aiutare la gente a ponderare meglio la scelta della piattaforma d’informazione.

Eppure, anche con l’impegno di diversi settori, la diffusione della disinformazione non può essere bloccata completamente e Udris non si aspetta miracoli improvvisi.

“Le dicerie sono parte della natura umana”, fa notare. Un pensiero che condivide anche Pierre Vandergheynst. “In fin dei conti, non è stato il web ad inventare le teorie del complotto”, dice il ricercatore dell’EPFL. "Le fa solo diffondere più velocemente, dato che anziché al bar, le senti su Facebook”. 


Traduzione dall'inglese di Zeno Zoccatelli

subscription form

Abbonatevi alla nostra newsletter gratuita per ricevere i nostri articoli.

×