Forscher der University of California nutzten eine KI-gesteuerte Gehirn-Computer-Schnittstelle (BCI), um Anne Johnsons Hirnsignale in Echtzeit-Sprache umzuwandeln, seit sie 2005 nach einem Schlaganfall verstummt war. Das System nutzte eine ähnliche Technologie wie Geräte wie Alexa und Siri und verbesserte ein Vorgängermodell mit einer Verzögerung von acht Sekunden.
Forscher der University of California, Berkeley, und der University of California, San Francisco, entwickelten ein maßgeschneidertes Gehirn-Computer-Interface-System, das einer 47-jährigen Tetraplegie-Patientin natürliches Sprechen zurückgab. Heute unterstützt Anne Forscher der UC San Francisco und UC Berkeley bei der Entwicklung einer BCI-Technologie, die es Menschen wie ihr eines Tages ermöglichen könnte, natürlicher über einen digitalen Avatar zu kommunizieren, dessen Gesichtsausdrücke mit der generierten Sprache übereinstimmen.
Gopala Anumanchipalli, Assistenzprofessor für Elektrotechnik und Informatik an der UC Berkeley und Mitautor der am Montag in der Fachzeitschrift Nature Neuroscience veröffentlichten Studie, bestätigte, dass das an Ann getestete Implantat ihre Sprechabsicht in flüssige Sätze umsetzte. Jonathan Brumberg vom Labor für Sprach- und Angewandte Neurowissenschaften der Universität Kansas, der die Ergebnisse ebenfalls begutachtete, begrüßte die Fortschritte und erklärte gegenüber der Nachrichtenagentur Associated Press , dies sei ein bedeutender Fortschritt auf dem Gebiet der Neurowissenschaften.
BCI-Technologie ermöglicht es einer Frau, nach fast 20 Jahren ihre Sprache wiederzuerlangen
Gedankenlesen kommt
Bahnbrechender Fortschritt bei Gehirn-Computer-Schnittstellen: Ein neues Implantat übersetzt Gedanken in Echtzeitsprache in nur 3 Sekunden – ein entscheidender Schritt für die natürliche Kommunikation bei Lähmungen.
Die in Nature Neuroscience veröffentlichte Studie zeigt, wie KI-Algorithmen… pic.twitter.com/XdGhrBlU63
— Chubby♨️ (@kimmonismus) 1. April 2025
Eine Frau, die nach einem Schlaganfall gelähmt war, erlangte nach fast zwei Jahrzehnten der Sprachlosigkeit ihre Stimme zurück. Möglich machte dies eine experimentelle Gehirn-Computer-Schnittstelle, die von Forschern der UC Berkeley und der UC San Francisco entwickelt und speziell auf ihren Fall zugeschnitten wurde. Die am 31. März in Nature Neuroscience veröffentlichte Studie nutzte künstliche Intelligenz, um die Gedanken der Teilnehmerin, die allgemein als „Anne“ bekannt ist, in Echtzeit in natürliche Sprache zu übersetzen.
Anumanchipalli erklärte, dass die Schnittstelle neuronale Signale mithilfe eines Elektrodenrasters im Sprachzentrum des Gehirns ausliest. Er fügte hinzu, dass es Erkrankungen wie ALS, Hirnstamminfarkt (wie im Fall von Anne) oder Verletzungen gebe, bei denen der Körper nicht mehr zugänglich sei und die betroffene Person „im Locked-in“ gefangen sei, kognitiv intakt, aber unfähig, sich zu bewegen oder zu sprechen. Anumanchipalli merkte an, dass zwar bedeutende Fortschritte bei der Entwicklung künstlicher Gliedmaßen erzielt worden seien, die Wiederherstellung der Sprache jedoch weiterhin komplexer sei.
„Im Gegensatz zu Sehen, Bewegung oder Hunger – Fähigkeiten, die wir mit anderen Arten teilen – unterscheidet uns die Sprache. Allein das macht sie zu einem faszinierenden Forschungsthema.“
–Gopala Anumanchipalli
Anumanchipalli räumte jedoch ein, dass die Entstehung intelligenten Verhaltens aus Neuronen und kortikalem Gewebe nach wie vor eine der größten Unbekannten sei. In der Studie wurde eine Gehirn-Computer-Schnittstelle (BCI) verwendet, um eine direkte Verbindung zwischen den elektrischen Signalen von Annes Gehirn und einem Computer herzustellen.
Das neue BCI-Gerät verbessert die vorherigen Versionen, die Verzögerungen aufwiesen
Die innovative Methode der US-Forscher beseitigte eine störende Verzögerung, die frühere Versionen der Technologie beeinträchtigte, indem sie die Gehirnaktivität der Probandin in 80-Millisekunden-Schritten analysierte und in eine synthetische Version ihrer Stimme übersetzte. Mehrere BCI-Sprachübersetzungsprojekte haben erzielt , die alle darauf abzielen, die Zeit für die Sprachgenerierung aus Gedanken zu verkürzen.
Laut Science Alert benötigen die meisten bestehenden BCI-Methoden einen „vollständigen Textabschnitt“, bevor die Software dessen Bedeutung entschlüsseln kann, was die Zeitspanne zwischen Sprachbeginn und Lautäußerung erheblich verlängern kann.
Ein von Forschern der UC Berkeley und San Francisco veröffentlichter Bericht zeigte, dass die Verbesserung der Latenz der Sprachsynthese und der Dekodierungsgeschwindigkeit für dynamische Gespräche und flüssige Kommunikation unerlässlich ist. Das gemeinsame UC-Team erklärte, dass (BCI) durch die zusätzliche Zeit, die die Sprachsynthese zum Abspielen benötigt, und die Zeit, die die Zuhörer zum Verstehen des synthetisierten Audios brauchen, noch verstärkt werden.
Die meisten bisherigen Methoden basierten Berichten zufolge darauf, dass der „Sprecher“ die Schnittstelle trainierte, indem er die Bewegungen des Sprechens offen nachahmte. Dies stellte eine Herausforderung dar, wenn es darum ging, der Dekodierungssoftware genügend Daten für Personen bereitzustellen, die aus der Übung waren oder schon immer Schwierigkeiten beim Sprechen hatten. Um diese beiden Hürden zu überwinden, trainierten die Forscher der UC ein flexibles, auf Deep Learning basierendes neuronales Netzwerk mit der „sensomotorischen Kortexaktivität“ der 47-jährigen Teilnehmerin, während diese 100 verschiedene Sätze aus einem Wortschatz von etwas über 1000 Wörtern stumm „sprach“.

