La Svizzera cerca soluzioni per tradurre la lingua dei segni con l’IA
I software di intelligenza artificiale per tradurre la lingua dei segni sono ancora poco diffusi e difficili da sviluppare. In Svizzera, diversi laboratori di ricerca e start-up stanno cercando di colmare questa lacuna, ma devono affrontare numerose sfide.
“Per chi usa la lingua dei segni, le lingue parlate e scritte sono di solito lingue straniere”, spiega Sarah Ebling, professoressa di linguistica, tecnologia e accessibilità all’Università di Zurigo. Gli strumenti di riconoscimento vocale con trascrizione in tempo reale, molto diffusi, rappresentano solamente una soluzione parziale. La lingua dei segni, infatti, non è una semplice traduzione visiva della lingua parlata e spesso manca di una forma scritta.
Un software dovrebbe essere in grado di interpretare la lingua dei segni, per rendere possibile una comunicazione istantanea con la lingua parlata. Tuttavia, data la sua natura visiva della lingua dei segni, questo è un compito molto complesso per una macchina. Una soluzione digitale richiede più passaggi: trascrizione, traduzione, e infine generazione di un video. Per riuscire a farlo in tempo reale su larga scala, sviluppatori e sviluppatrici stanno provando a combinare diverse soluzioni di IA.
Errori, espressività e velocità: i nodi da sciogliere
Tra gli strumenti più promettenti c’è SignGemma di Google, annunciato nel maggio 2025 e atteso per la fine dell’anno. L’azienda zurighese sign.mt ha già presentato una versione di prova capace di tradurre testi in oltre 40 lingue dei segni, tra cui la lingua dei segni svizzero-tedesca. Tuttavia, questi strumenti sono ancora agli albori. Le traduzioni commettono numerosi errori, i video generati non sono espressivi quanto un interprete umano e la velocità di produzione non è sufficiente per garantire una comunicazione fluida.
“Seguiamo questi sviluppi con interesse, ma anche con spirito critico. La qualità dei video deve essere elevata, altrimenti non potranno essere veramente accessibili e utilizzabili nella vita quotidiana”, afferma Ben Jud, portavoce della Federazione svizzera dei sordi. “Al momento non conosciamo nessun prodotto che soddisfi le nostre aspettative”.
La sfida dei dialetti svizzeri
Un ulteriore ostacolo è la grande varietà della lingua dei segni. Nel mondo ne esistono decine di versioni e, in Svizzera, ne sono utilizzate tre diverse da circa 30’000 persone. Come le lingue parlate del Paese, anche le lingue dei segni variano da regione a regione.
Mentre le lingue dei segni svizzero-francese e svizzero-italiana sono simili a quelle dei Paesi confinanti, la versione svizzero-tedesca differisce notevolmente da quella tedesca. Per questi idiomi minoritari, raccogliere una quantità sufficiente di dati è molto più difficile rispetto alle lingue dei segni più diffuse.
Iniziative pubbliche e private
SwissTXT, la divisione della SSR (società madre di Swissinfo) specializzata in accessibilità, punta a usare l’IA per rendere più accessibili i propri programmi televisivi. Attualmente dispone di 14 interpreti umani per tre lingue dei segni, troppo pochi per coprire ogni trasmissione. “I traduttori digitali hanno senso nei casi in cui non è disponibile un interprete umano”, sottolinea Ebling.
>> Nel video qui sotto, degli avatar presentano le previsioni del tempo per la Svizzera occidentale nella lingua dei segni:
Per sviluppare i primi prototipi, SwissTXT ha registrato gli e le interpreti con 16 telecamere, catturando ogni loro gesto e movimento. Il materiale ha permesso di generare dei digital signer (in italiano, segnanti digitali).
La prima prova trasmessa in onda è prevista per l’inizio del 2026, in programmi semplici e ripetitivi come le previsioni meteo. “Ci concentriamo su contenuti caratterizzati da una struttura che si ripete quotidianamente”, spiega Louis Amara, responsabile dell’innovazione di SwissTXT.
Per ora, invece, l’IA non è ancora in grado di affrontare altre trasmissioni o film dove il linguaggio è più vario e complesso.
Altri sviluppi
Che cosa è l’intelligenza artificiale?
Dai metodi statistici alle reti neurali
Secondo Amit Moryossef, fondatore di sign.mt ed ex ricercatore nel laboratorio di Sarah Ebling, esistono due livelli di traduzione automatica. Il primo, oggi adottato dall’azienda stessa, è quello statistico che associa ogni parola a un gesto. Questo, però, porta a errori legati al contesto. Per esempio, il termine “mora” può essere inteso come “frutto” o come “interesse, sanzione” in senso monetario.
Problemi simili caratterizzavano anche le prime versioni di Google Translate. Inoltre, la sintassi delle lingue dei segni è spesso diversa da quella delle lingue parlate. “L’obiettivo è passare al livello successivo, la traduzione neurale”, spiega Moryossef. In questo approccio il sistema considera l’intera frase all’interno del suo contesto. Per raggiungere tale traguardo, però, è necessario disporre di un’enorme banca dati.
Annotatori e annotatrici umani devono quindi guardare una grande mole di video contenenti persone segnanti e annotare i segni con un alfabeto speciale, simile a quello fonetico. Una volta raccolti abbastanza dati, la macchina potrà associare gruppi di segni a gruppi di parole, comprendendo anche gerghi, espressioni colloquiali e modi di dire.
Un altro punto critico riguarda l’aspetto visivo degli avatar digitali. “Se sono troppo realistici, mettono a disagio. Se sono troppo caricaturali, rischiano di non essere presi sul serio”, osserva Amara di SwissTXT. Per questo, l’azienda sta lavorando a stretto contatto con la comunità sorda, con l’obiettivo di raccogliere i loro pareri e sviluppare due diverse versioni grafiche.
Un ruolo limitato per l’IA?
Zheng Xuan, docente sorda alla facoltà di educazione della Beijing Normal University, ha scritto di recente: “La scarsa qualità della lingua dei segni generata dall’IA viola direttamente il diritto delle persone sorde all’accesso all’informazione, inquina il corpus linguistico e ostacola la diffusione della lingua dei segni autentica”. In Cina, le sue ricerche hanno mostrato che l’utenza sorda fatica a comprendere i movimenti degli avatar e lamenta un vocabolario limitato.
Alla luce di questi limiti, l’Associazione svizzera degli interpreti e traduttori di lingua dei segni (bgdü) non si sente minacciata dall’IA. I sistemi attuali non riescono a riprodurre elementi interpersonali fondamentali come enfasi, intonazione, sfumature e linguaggio del corpo, centrali nella comunicazione umana. “Avatar e traduttori digitali potranno essere utili in certi contesti – se la comunità sorda li desidera – ma la domanda di interpreti umani rimarrà”, afferma il comitato direttivo del bgdü.
Anche SwissTXT condivide questa visione. “L’IA verrà impiegata solo nei programmi per i quali non c’è un interprete disponibile. Così possiamo ampliare il servizio oltre i limiti delle risorse umane”, spiega Peter Klinger, coordinatore di progetto senior di SwissTXT. Ma in ambiti sensibili, come ospedali e tribunali, nessuno pensa di sostituire le persone. “In campo medico questa tecnologia è assolutamente fuori discussione: il fattore umano è troppo importante e i rischi di errore sono enormi”, conclude Ebling.
Altri sviluppi
A cura di Gabe Bullard
In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative
Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.
Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.