I ricercatori dell'Università della California hanno utilizzato un'interfaccia cervello-computer (BCI) guidata dall'intelligenza artificiale per trasformare i segnali cerebrali di Anne Johnson in linguaggio parlato in tempo reale da quando, nel 2005, è rimasta in silenzio a causa di un ictus. Il sistema sfruttava una tecnologia simile a quella di dispositivi come Alexa e Siri e migliorava un modello precedente che prevedeva un ritardo di otto secondi.
I ricercatori dell'Università della California, Berkeley, e dell'Università della California, San Francisco, hanno sviluppato un sistema di interfaccia cervello-computer personalizzato in grado di ripristinare la capacità di linguaggio naturale di una donna di 47 anni affetta da tetraplegia. Oggi, Anne sta aiutando i ricercatori dell'Università della California, San Francisco e Berkeley, a sviluppare una tecnologia BCI che un giorno potrebbe permettere a persone come lei di comunicare in modo più naturale attraverso un avatar digitale che abbina le espressioni facciali al linguaggio generato.
Gopala Anumanchipalli, professore associato di ingegneria elettrica e informatica presso l'Università della California, Berkeley e coautore dello studio pubblicato lunedì sulla rivista Nature Neuroscience, ha confermato che il dispositivo impiantato testato su Ann ha convertito "la sua intenzione di parlare in frasi fluenti". Jonathan Brumberg dello Speech and Applied Neuroscience Lab dell'Università del Kansas, che ha anche esaminato i risultati, ha accolto con favore i progressi e ha dichiarato all'Associated Press che si tratta di "un progresso piuttosto significativo nel campo delle neuroscienze".
La tecnologia BCI consente a una donna di riacquistare la parola dopo quasi 20 anni
La lettura della mente sta arrivando
Progressi rivoluzionari nelle interfacce cervello-computer: un nuovo impianto traduce i pensieri in linguaggio parlato in tempo reale in soli 3 secondi, un passo fondamentale per la comunicazione naturale in caso di paralisi.
Lo studio, pubblicato su Nature Neuroscience, mostra come gli algoritmi di intelligenza artificiale... pic.twitter.com/XdGhrBlU63
— Chubby♨️ (@kimmonismus) 1 aprile 2025
Una donna paralizzata da un ictus ha riacquistato la voce dopo quasi vent'anni di silenzio grazie a un'interfaccia cervello-computer sperimentale sviluppata e personalizzata appositamente per il suo caso da ricercatori dell'Università della California, Berkeley e dell'Università della California, San Francisco. La ricerca, pubblicata su Nature Neuroscience il 31 marzo, ha utilizzato l'intelligenza artificiale per tradurre i pensieri della partecipante, popolarmente conosciuta come "Anne", in linguaggio naturale in tempo reale.
Anumanchipalli ha spiegato che l'interfaccia legge i segnali neurali utilizzando una griglia di elettrodi posizionati sul centro del linguaggio del cervello. Ha aggiunto che era chiaro che esistevano condizioni – come la SLA, un ictus del tronco encefalico (come nel caso di Anne) o lesioni – in cui il corpo diventava inaccessibile e la persona era "bloccata", cognitivamente integra ma incapace di muoversi o parlare. Anumanchipalli ha osservato che, sebbene siano stati compiuti progressi significativi nella creazione di arti artificiali, il ripristino della parola rimaneva più complicato.
"A differenza della vista, del movimento o della fame – condivisi con altre specie – il linguaggio ci distingue. Questo da solo lo rende un affascinante argomento di ricerca."
–Gopala Anumanchipalli
Tuttavia, Anumanchipalli ha riconosciuto che il modo in cui il comportamento intelligente emerge dai neuroni e dal tessuto corticale era ancora una delle grandi incognite. Lo studio ha utilizzato un'interfaccia BCI per creare un collegamento diretto tra i segnali elettrici del cervello di Anne e un computer.
Il nuovo dispositivo BCI migliora le versioni precedenti che presentavano ritardi
Il metodo innovativo dei ricercatori statunitensi ha eliminato un fastidioso ritardo che affliggeva le precedenti versioni della tecnologia, analizzando l'attività cerebrale della paziente con incrementi di 80 millisecondi e traducendola in una versione sintetizzata della sua voce. Diversi progetti di traduzione vocale basati sulla BCI hanno prodotto risultati positivi di recente, ciascuno dei quali mira a ridurre il tempo necessario per generare il parlato a partire dai pensieri.
Secondo Science Alert, la maggior parte dei metodi BCI esistenti richiedeva che fosse preso in considerazione "un intero blocco di testo" prima che il software potesse decifrarne il significato, il che poteva allungare notevolmente i secondi tra l'inizio del discorso e la vocalizzazione.
Il rapporto pubblicato dai ricercatori dell'Università della California, Berkeley e San Francisco, ha rivelato che migliorare la latenza della sintesi vocale e la velocità di decodifica era essenziale per una conversazione dinamica e una comunicazione fluida. Il team congiunto dell'Università della California ha spiegato che BCI erano aggravati dal tempo aggiuntivo richiesto dalla sintesi vocale per funzionare e dal tempo impiegato dagli ascoltatori per comprendere l'audio sintetizzato.
La maggior parte dei metodi esistenti si basava sull'addestramento del "parlante" all'interfaccia, eseguendo apertamente i movimenti della vocalizzazione, il che avrebbe rappresentato una sfida quando si trattava di fornire al software di decodifica dati sufficienti per individui fuori allenamento o che avevano sempre avuto difficoltà a parlare. Per superare entrambi questi ostacoli, i ricercatori dell'UC hanno addestrato una rete neurale flessibile basata su deep learning sull'"attività della corteccia sensomotoria" della partecipante di 47 anni, mentre questa "pronunciava" silenziosamente 100 frasi uniche da un vocabolario di poco più di 1.000 parole.

