Investigadores de la Universidad de California utilizaron una interfaz cerebro-computadora (ICC) impulsada por IA para convertir las señales cerebrales de Anne Johnson en habla en tiempo real desde que perdió el habla en 2005 tras un derrame cerebral. El sistema aprovechó tecnología similar a la de dispositivos como Alexa y Siri y mejoró un modelo anterior con un retardo de ocho segundos.
Investigadores de la Universidad de California en Berkeley y la Universidad de California en San Francisco desarrollaron un sistema de interfaz cerebro-computadora personalizado capaz de restaurar el habla natural a una mujer de 47 años con cuadriplejia. Actualmente, Anne colabora con investigadores de la Universidad de California en San Francisco y la Universidad de California en Berkeley en el desarrollo de tecnología BCI que, algún día, podría permitir que personas como ella se comuniquen de forma más natural mediante un avatar digital que adapta las expresiones faciales al habla generada.
Gopala Anumanchipalli, profesor adjunto de ingeniería eléctrica y ciencias de la computación en la Universidad de California en Berkeley y coautor del estudio publicado el lunes en la revista Nature Neuroscience, confirmó que el dispositivo implantado en Ann convirtió su intención de hablar en frases fluidas. Jonathan Brumberg, del Laboratorio de Neurociencia Aplicada y del Habla de la Universidad de Kansas, quien también revisó los hallazgos, celebró los avances y declaró a The Associated Press que se trata de un avance considerable en el campo de la neurociencia.
La tecnología BCI permite a una mujer recuperar el habla después de casi 20 años
La lectura de la mente está llegando
Avance revolucionario en las interfaces cerebro-computadora: un nuevo implante traduce los pensamientos en habla en tiempo real en sólo 3 segundos: un paso crucial para la comunicación natural en casos de parálisis.
El estudio, publicado en Nature Neuroscience, muestra cómo los algoritmos de IA… pic.twitter.com/XdGhrBlU63
— Gordita♨️ (@kimmonismus) 1 de abril de 2025
Una mujer paralizada por un derrame cerebral recuperó la voz tras casi dos décadas de silencio gracias a una interfaz cerebro-computadora experimental desarrollada y adaptada específicamente a su caso por investigadores de la Universidad de California en Berkeley y la Universidad de California en San Francisco. La investigación, publicada en Nature Neuroscience el 31 de marzo, utilizó inteligencia artificial para traducir los pensamientos de la participante, conocida popularmente como "Anne", a habla natural en tiempo real.
Anumanchipalli explicó que la interfaz lee las señales neuronales mediante una red de electrodos colocados en el centro del habla del cerebro. Añadió que era evidente que en ciertas afecciones, como la ELA, un ictus cerebral (como en el caso de Anne) o lesiones, el cuerpo se volvía inaccesible y la persona quedaba "encerrada", con la cognición intacta, pero sin poder moverse ni hablar. Anumanchipalli señaló que, si bien se habían logrado avances significativos en la creación de extremidades artificiales, la recuperación del habla seguía siendo más compleja.
A diferencia de la visión, el movimiento o el hambre —compartidos con otras especies—, el habla nos distingue. Eso por sí solo la convierte en un tema de investigación fascinante
–Gopala Anumanchipalli
Sin embargo, Anumanchipalli reconoció que la forma en que el comportamiento inteligente surge de las neuronas y el tejido cortical sigue siendo una de las grandes incógnitas. El estudio utilizó una BCI para crear una vía directa entre las señales eléctricas del cerebro de Anne y una computadora.
El nuevo dispositivo BCI mejora las versiones anteriores que presentaron retrasos
El innovador método de los investigadores estadounidenses eliminó un retraso frustrante que afectaba a las versiones anteriores de la tecnología, analizando su actividad cerebral en incrementos de 80 milisegundos y traduciéndola a una versión sintetizada de su voz. Varios proyectos de traducción de voz mediante BCI han arrojado resultados positivos recientemente, cada uno de ellos con el objetivo de reducir el tiempo necesario para generar voz a partir de los pensamientos.
Según Science Alert, la mayoría de los métodos BCI existentes requerían que se considerara "un fragmento completo de texto" antes de que el software pudiera descifrar su significado, lo que podía prolongar significativamente los segundos entre el inicio del habla y la vocalización.
El informe publicado por investigadores de la Universidad de California en Berkeley y San Francisco reveló que mejorar la latencia de la síntesis de voz y la velocidad de decodificación era esencial para una conversación dinámica y una comunicación fluida. El equipo conjunto de la UC explicó que con BCI se veían agravados por el tiempo adicional que requería la síntesis de voz para su reproducción y el tiempo que los oyentes tardaban en comprender el audio sintetizado.
Según se informa, la mayoría de los métodos existentes se basaban en que el hablante entrenara la interfaz mediante la ejecución de vocalizaciones, lo cual representaría un desafío al proporcionar software de decodificación con suficientes datos para personas sin práctica o que siempre habían tenido dificultades para hablar. Para superar ambos obstáculos, los investigadores de la UC entrenaron una red neuronal flexible de aprendizaje profundo con la actividad de la corteza sensoriomotora de la participante de 47 años mientras pronunciaba en silencio 100 frases únicas de un vocabulario de poco más de 1000 palabras.

