Pesquisadores da Universidade da Califórnia usaram uma interface cérebro-computador (ICC) com inteligência artificial para converter os sinais cerebrais de Anne Johnson em fala em tempo real, desde que ela ficou muda em 2005 após um AVC. O sistema utilizou tecnologia semelhante à de dispositivos como Alexa e Siri e representou uma melhoria em relação a um modelo anterior que apresentava um atraso de oito segundos.
Pesquisadores da Universidade da Califórnia, Berkeley, e da Universidade da Califórnia, São Francisco, desenvolveram um sistema de interface cérebro-computador personalizado capaz de restaurar a fala natural em uma mulher de 47 anos com tetraplegia. Hoje, Anne está ajudando pesquisadores da UC San Francisco e da UC Berkeley a desenvolver uma tecnologia de interface cérebro-computador que poderá, um dia, permitir que pessoas como ela se comuniquem de forma mais natural por meio de um avatar digital que associa expressões faciais à fala gerada.
Gopala Anumanchipalli, professor assistente de engenharia elétrica e ciência da computação na UC Berkeley e coautor do estudo publicado na segunda-feira na revista Nature Neuroscience, confirmou que o dispositivo implantado testado em Ann converteu "sua intenção de falar em frases fluentes". Jonathan Brumberg, do Laboratório de Fala e Neurociência Aplicada da Universidade do Kansas, que também revisou as descobertas, saudou os avanços e disse à Associated Press que este foi "um avanço bastante significativo no campo da neurociência".
A tecnologia BCI permite que uma mulher recupere a fala após quase 20 anos
A leitura da mente está chegando
Avanços inovadores em interfaces cérebro-computador: um novo implante traduz pensamentos em fala em tempo real em apenas 3 segundos – um passo crucial para a comunicação natural em casos de paralisia.
O estudo, publicado na Nature Neuroscience, mostra como os algoritmos de IA… pic.twitter.com/XdGhrBlU63
— Chubby♨️ (@kimmonismus) 1 de abril de 2025
Uma mulher que ficou paralisada após um AVC recuperou a voz depois de quase duas décadas de silêncio, graças a uma interface cérebro-computador experimental desenvolvida — e personalizada especificamente para o seu caso — por pesquisadores da UC Berkeley e da UC San Francisco. A pesquisa, publicada na revista Nature Neuroscience em 31 de março, utilizou inteligência artificial para traduzir os pensamentos da participante, popularmente conhecida como "Anne", em fala natural em tempo real.
Anumanchipalli explicou que a interface lê sinais neurais usando uma grade de eletrodos colocada no centro da fala do cérebro. Ele acrescentou que era evidente que existiam condições — como ELA, acidente vascular cerebral no tronco cerebral (como no caso de Anne) ou lesões — em que o corpo se tornava inacessível e a pessoa ficava "presa", cognitivamente intacta, mas incapaz de se mover ou falar. Anumanchipalli observou que, embora progressos significativos tivessem sido feitos na criação de membros artificiais, restaurar a fala continuava sendo mais complexo.
“Ao contrário da visão, do movimento ou da fome — características compartilhadas com outras espécies —, a fala nos diferencia. Só isso já a torna um tema de pesquisa fascinante.”
–Gopala Anumanchipalli
No entanto, Anumanchipalli reconheceu que a forma como o comportamento inteligente emerge dos neurônios e do tecido cortical ainda é uma das grandes incógnitas. O estudo utilizou uma interface cérebro-computador (BCI) para criar uma via direta entre os sinais elétricos do cérebro de Anne e um computador.
Novo dispositivo BCI apresenta melhorias em relação às versões anteriores que apresentavam atrasos
O método inovador desenvolvido por pesquisadores americanos eliminou um atraso frustrante que afetava versões anteriores da tecnologia, analisando a atividade cerebral da paciente em incrementos de 80 milissegundos e traduzindo-a em uma versão sintetizada de sua voz. Diversos projetos de tradução de fala por meio de interfaces cérebro-computador (BCI) têm apresentado resultados positivos recentemente, cada um com o objetivo de reduzir o tempo necessário para gerar fala a partir de pensamentos.
Segundo o Science Alert, a maioria dos métodos de interface cérebro-computador (BCI) existentes exigia que "um bloco completo de texto" fosse considerado antes que o software pudesse decifrar seu significado, o que poderia prolongar significativamente o tempo entre o início da fala e a vocalização.
O relatório publicado por pesquisadores da UC Berkeley e de São Francisco revelou que a melhoria da latência da síntese de fala e da velocidade de decodificação é essencial para conversas dinâmicas e comunicação fluente. A equipe conjunta da UC explicou que interfaces cérebro-computador (BCI) são agravados pelo tempo adicional necessário para a reprodução da síntese de fala e pelo tempo que os ouvintes levam para compreender o áudio sintetizado.
A maioria dos métodos existentes dependia do "falante" treinar a interface simulando vocalizações, o que seria um desafio ao fornecer ao software de decodificação dados suficientes para indivíduos que não praticavam ou sempre tiveram dificuldade para falar. Para superar esses dois obstáculos, os pesquisadores da UC treinaram uma rede neural flexível de aprendizado profundo com base na "atividade do córtex sensório-motor" da participante de 47 anos enquanto ela "falava" silenciosamente 100 frases únicas de um vocabulário de pouco mais de 1.000 palavras.

