Pesquisadores da Universidade da Califórnia usaram uma interface cerebral (BCI), impulsionada pela IA para transformar os sinais cerebrais de Anne Johnson em discurso em tempo real desde que ficou em silêncio em 2005 após um derrame. O sistema aproveitou a tecnologia semelhante à de dispositivos como Alexa e Siri e melhorou em um modelo anterior que teve um atraso de oito segundos.
Pesquisadores da Universidade da Califórnia, Berkeley e da Universidade da Califórnia, São Francisco, desenvolveram um sistema de interface cerebral-computador personalizado capaz de restaurar o discurso naturalista a uma mulher de 47 anos com quadriplegia. Hoje, Anne está ajudando pesquisadores da UC São Francisco e da UC Berkeley a desenvolver a tecnologia BCI que poderia um dia permitir que pessoas como ela se comuniquem mais naturalmente através de um avatar digital que corresponde às expressões faciais com o discurso gerado.
Gopala Anumanchipalli, professora assistente de engenharia elétrica e ciências da computação na UC Berkeley e co-autor do estudo publicado segunda-feira na revista Neurociência Nature, confirmou que o dispositivo implantado testado em Ann converteu 'sua intenção de falar em sentenças fluentes'. Jonathan Brumberg do Laboratório de Discurso e Neurociência Aplicada da Universidade do Kansas, que também revisou as descobertas, recebeu os avanços e disse à Associated Press que esse foi "um grande avanço no campo da neurociência".
A tecnologia BCI permite que uma mulher recupere seu discurso depois de quase 20 anos
A leitura mental está chegando
Progresso inovador nas interfaces do cérebro-computador: Um novo implante traduz pensamentos em discurso em tempo real em apenas 3 segundos-uma etapa crucial para a comunicação natural em paralisia.
O estudo, publicado na Nature Neuroscience, mostra como os algoritmos da IA… pic.twitter.com/xdghrblu63
- Chubby♨️ (@kimmonismus) 1 de abril de 2025
Uma mulher paralisou por um derrame recuperou sua voz depois de quase duas décadas de silêncio por meio de uma interface experimental de computadores do cérebro desenvolvida-e especificamente personalizada para seu caso-por pesquisadores da UC Berkeley e da UC São Francisco. A pesquisa, publicada na Nature Neuroscience em 31 de março, utilizou inteligência artificial para traduzir os pensamentos do participante, popularmente conhecida como "Anne", em discurso natural em tempo real.
Anumanchipalli explicou que a interface lê sinais neurais usando uma grade de eletrodos colocados no centro de fala do cérebro. Ele acrescentou que ficou claro que havia condições - como ALS, golpe do tronco cerebral (como no caso de Anne) ou lesão - onde o corpo se tornou inacessível, e a pessoa estava "trancada", sendo cognitivamente intacta, mas incapaz de se mover ou falar. Anumanchipalli observou que, embora um progresso significativo tenha sido feito na criação de membros artificiais, a restauração da fala permaneceu mais complicada.
"Ao contrário da visão, movimento ou fome - compartilhados com outras espécies - a discussão nos diferencia. Somente isso o torna um tópico de pesquisa fascinante."
–Gopala Anumanchipalli
No entanto, Anumanchipalli reconheceu que como o comportamento inteligente emergiu dos neurônios e do tecido cortical ainda era um dos grandes incógnitas. O estudo usou um BCI para criar uma via direta entre os sinais elétricos de Anne no cérebro e um computador.
Novo dispositivo BCI melhora as versões anteriores que tiveram atrasos
O método inovador dos pesquisadores dos EUA eliminou um atraso frustrante que atormentava as versões anteriores da tecnologia analisando sua atividade cerebral em incrementos de 80 milissegundos e traduzindo-a em uma versão sintetizada de sua voz. Vários projetos de tradução de fala da BCI produziram resultados positivos recentemente, cada um com o objetivo de reduzir o tempo necessário para gerar discursos a partir de pensamentos.
De acordo com o Science Alert, a maioria dos métodos BCI existentes exigia 'um pedaço completo de texto' a ser considerado antes que o software possa decifrar seu significado, o que poderia arrastar significativamente os segundos entre o início e a vocalização da fala.
O relatório publicado por pesquisadores da UC Berkeley e São Francisco divulgou que melhorar a latência da síntese da fala e a velocidade de decodificar era essencial para conversas dinâmicas e comunicação fluente. A equipe conjunta da UC explicou que da BCI foram agravados pela síntese de fala adicional necessária para reproduzir e os ouvintes do tempo levaram para compreender o áudio sintetizado.
A maioria dos métodos existentes baseou -se no treinamento do 'orador' da interface, passando abertamente pelos movimentos de vocalizar, o que seria um desafio ao fornecer um software de decodificação com dados suficientes para indivíduos que estavam fora de prática ou sempre tiveram dificuldade em falar. Para superar esses dois obstáculos, os pesquisadores da UC treinaram uma rede neural flexível e de aprendizado profundo na "atividade do córtex sensório-motor de 47 anos, enquanto ela silenciosamente" falou "100 frases únicas de um vocabulário de pouco mais de 1.000 palavras.
O fio de diferença -chave ajuda as marcas de criptografia a romper e dominar as manchetes rapidamente