“Non ricordo più com’era senza l’IA”: giovani in Svizzera sempre più legati ai chatbot
Dall’aiuto nello studio al sostegno emotivo, i chatbot d’intelligenza artificiale stanno diventando compagni quotidiani per molte persone giovani in Svizzera, sollevando preoccupazioni su cali di attenzione, solitudine e dipendenza.
Adam* ha 17 anni e non ricorda più com’era studiare senza ChatGPT. Qualche giorno prima di una verifica, si chiude nella sua camera in una piccola cittadina del canton Svitto, nella Svizzera centrale, e chiede al chatbot di riassumere pagine di materiale di studio e di preparare domande e risposte.
Tre giorni alla settimana lavora come apprendista nello sviluppo di software in un’azienda a Zurigo. Anche sul posto di lavoro interagisce costantemente con strumenti d’intelligenza artificiale (IA). A volte li usa per un’intera giornata per pianificare attività, riassumere dati o ricevere suggerimenti di programmazione.
Nel privato, usa i chatbot come “amici molto intelligenti”, a cui chiede consigli su dieta, fitness e altri aspetti pratici della vita quotidiana. Piuttosto che confrontarsi con i coetanei, preferisce rivolgersi all’IA, che descrive come una sorta di “coach di alto livello”. Dice di non conoscere nessuno della sua età che non usi l’IA per studio, lavoro o questioni personali.
StudiCollegamento esterno recenti mostrano che in Svizzera l’84% delle e degli adolescenti utilizza regolarmente strumenti d’intelligenza artificiale, mentre oltre il 60% dei giovani adulti tra i 20 e i 29 anni li impiega per lavoro o studio. L’utilizzo diminuisce costantemente con l’età.
Nell’Unione EuropeaCollegamento esterno, due giovani su tre tra i 16 e i 24 anni dichiarano di rivolgersi ai chatbot, mentre negli Stati Uniti quasi tre quartiCollegamento esterno delle persone sotto i 30 anni interagiscono con l’IA almeno una volta nell’arco di un mese.
Alcuni esperti ed esperte avvertono che un uso intensivo dell’IA potrebbe avere conseguenze profonde sulle giovani generazioni, influendo sulla loro capacità di pensare in modo critico, di costruire relazioni con altri esseri umani e portando a una dipendenza dalla tecnologia.
Gli effetti potrebbero essere particolarmente rilevanti in Svizzera, dove i livelli di solitudine sono elevati rispetto a molti altri Paesi. Nel 2022, il 42,3% delle persone ha dichiarato di sentirsi sola talvolta o spesso. Tra le e i giovani tra i 15 e i 24 anniCollegamento esterno la quota sale al 59%.
Dall’”hacking” dell’attenzione all’hacking dell’attaccamento
Lo psicologo statunitense Zachary Stein, cofondatore della Coalition for AI Psychological Harms Research, ritiene che il problema legato all’IA abbia cominciato a emergere circa 10 anni fa, quando piattaforme come Instagram e TikTok hanno introdotto algoritmi progettati per tenere l’utenza – spesso molto giovane – incollata alle loro applicazioni.
Il tempo trascorso davanti agli schermi, secondo Stein, è associato a un calo della capacità di attenzione. Ora, sostiene lo psicologo, l’IA generativa sta scavando più in profondità, interferendo con i meccanismi biologici che regolano la capacità di creare legami umani.
Stein cita l’esempio di un bambino che torna a casa da scuola entusiasta per un buon voto. Invece di raccontarlo ai genitori, si chiude in camera e lo racconta al chatbot con cui ha studiato, ricevendo un elogio dalla macchina.
“Il bambino riceve dal chatbot lo stesso segnale di attaccamento che dovrebbe ricevere da sua madre”, afferma Stein.
Molti giovani si rivolgono ai chatbot perché sono disponibili 24 ore su 24 e perché tendono a compiacere l’utente – un fenomeno noto come “sycophancy”. A differenza delle relazioni umane, talvolta caratterizzate da disaccordo e imprevedibilità, queste risposte rassicuranti possono favorire un attaccamento emotivo.
Secondo Stein, ciò rischia di “hackerare” le strutture neurologiche responsabili dei legami emotivi, portando potenzialmente a sintomi come perdita di senso della realtà, psicosi e isolamento profondo.
“Dopo settimane d’interazione con una macchina che simula l’attaccamento, il cervello non riesce più a distinguere la realtà”, afferma Stein.
>> Ecco perché le risposte dei chatbot vanno prese con cautela:
Altri sviluppi
ChatGPT: intelligenza, stupidità o malvagità artificiali?
“È assurdo essere infastiditi dall’idea di dover pensare”
Rebecca Ceccatelli ha osservato alcune di queste dinamiche tra i suoi coetanei e su sé stessa.
La venticinquenne, originaria di Prato, nel centro Italia, studia informatica al Politecnico federale di Zurigo (ETH Zurich). Prima di ChatGPT, racconta, riusciva a studiare per ore senza interruzioni. Oggi sente che la sua soglia di attenzione è diminuita in modo significativo.
“Ora sono esausta dopo una giornata di studio e faccio molta più fatica a concentrarmi”, dice.
Quando il chatbot non le fornisce subito la risposta giusta, Ceccatelli a volte si irrita all’idea di dover cercare le informazioni da sola.
“È assurdo essere infastiditi dal fatto di dover pensare”, aggiunge.
Pur avendo una vita sociale attiva, Ceccatelli ammette che lo studio è diventato più solitario: quando ha dubbi, si limita a chiedere direttamente a ChatGPT.
Tra le persone e le amicizie attorno a lei, racconta, disturbi dell’attenzione, ansia e attacchi di panico sembrano sempre più diffusi.
Sa anche per certo che alcuni compagni di studio usano l’IA generativa per discutere di questioni personali o chiedere consigli sentimentali.
“Una volta un amico mi ha detto che non capiva perché una ragazza con cui era uscito non volesse più vederlo”, racconta Ceccatelli. “ChatGPT gli aveva detto che non aveva fatto nulla di sbagliato”.
Più un chatbot appare “umano”, più forte è l’attaccamento emotivo
Dal momento che milioni di persone trattano i chatbot come amici, partner o terapeuti virtuali, sempre più ricerche stanno indagando gli effetti dell’IA sulle relazioni nel mondo reale.
Secondo Nadja Rupprechter, psicologa dei media all’Università di Zurigo, la gratificazione che l’utenza trae dalle interazioni con l’IA generativa rafforza l’attaccamento emotivo e aumenta la frequenza d’uso.
“Gli esseri umani sono programmati per individuare segnali sociali nel loro ambiente, indipendentemente dal fatto che provengano da altri esseri umani, da animali o da entità artificiali”, afferma.
Rupprechter ha studiato i meccanismi psicologici che portano le persone a sviluppare legami emotivi con i chatbot su un campione di oltre 500 persone in 64 Paesi, la maggior parte tra i 14 e i 24 anni.
Il suo studioCollegamento esterno – attualmente in fase di revisione tra pari – suggerisce che più un chatbot appare “umano”, più forte è l’attaccamento emotivo riportato dagli e dalle utenti.
“I chatbot intrattengono le persone, le tengono coinvolte e sono percepiti come uno spazio neutro dove esplorare la propria identità senza sentirsi giudicati”, afferma.
Relazioni sostituibili…con l’IA
Roger*, uno studente universitario venticinquenne di Losanna, ritiene che molti suoi coetanei usino l’IA come amica o confidente perché sono già abituati a relazioni online superficiali e facilmente sostituibili.
Lo ha sperimentato in prima persona. Durante l’adolescenza ha trascorso lunghi periodi chiuso nella sua stanza a giocare ai videogiochi e a chattare con sconosciuti online, finché non si è reso conto che nessuna di quelle relazioni poteva davvero essere definita un’amicizia.
“La maggior parte può essere facilmente sostituita dall’IA”, afferma.
Secondo Roger, molte persone che socializzano sui social media cercano semplicemente intrattenimento e contatti facili.
“È come mangiare un Big Mac e volerne subito un altro”, afferma.
Con il tempo, ha iniziato a concentrarsi sulle relazioni nella vita reale, fondando un’associazione studentesca nella sua università e prendendo l’abitudine d’incontrare nuove persone offline.
Oggi dice di essere soddisfatto della sua cerchia di amicizie e che non si affiderebbe ai chatbot di IA per questioni personali.
“Ti danno solo ragione e ti fanno sentire ancora peggio”.
AI: tra sostegno emotivo e rischio di dipendenza
Nonostante le crescenti preoccupazioni, non esistono ancora prove conclusive che colleghino l’uso intensivo dei chatbot a disturbi mentali o relazionali.
“La ricerca è solo all’inizio”, afferma Nadja Rupprechter.
I confronti tra Paesi restano difficili a causa della mancanza di studi comparativi solidi. Per questo motivo, spiega Rupprechter, è complicato collegare in modo definitivo la diffusione dei chatbot a caratteristiche socio-culturali specifiche, come i livelli di solitudine.
“Quello che sappiamo è che la Svizzera non è un caso isolato”, afferma.
Inoltre, le relazioni tra esseri umani e chatbot possono avere anche effetti positivi. Lo studio di Rupprechter e altre ricercheCollegamento esterno mostrano che alcune persone traggono davvero beneficio dall’interazione con l’IA.
Thomas Vogt, 35 anni, un’infanzia segnata dalla solitudine e una diagnosi di autismo arrivata solo in età adulta, ne è un esempio. Vogt racconta che ChatGPT lo ha aiutato ad affrontare momenti difficili.
“Mi ha aiutato a calmarmi e a guardare le situazioni da un’altra prospettiva”, dice.
Durante la pandemia di Covid, Vogt ha lanciato un sito webCollegamento esterno per sostenere le persone che lottano contro la solitudine nel canton Berna e grazie al progetto è riuscito a costruire diverse amicizie. Tuttavia, ammette di avere un problema di dipendenza dalle tecnologie che ChatGPT sta aggravando.
“Se non metti dei limiti, ChatGPT ti terrà in una spirale infinita di conversazioni. Ti sembrerà di diventare più felice o più intelligente, ma in realtà ti stai solo perdendo il mondo là fuori.”
Partecipate alla discussione:
*Nome cambiato su richiesta della fonte. Il nome completo è noto alla redazione.
A cura di Gabe Bullard/vdv
In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative
Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.
Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.