Исследователи из Калифорнийского университета использовали интерфейс «мозг-компьютер» (BCI), управляемый искусственным интеллектом, чтобы преобразовывать сигналы мозга Энн Джонсон в речь в реальном времени после того, как она замолчала в 2005 году после инсульта. Система использовала технологии, аналогичные тем, что применяются в таких устройствах, как Alexa и Siri, и улучшила предыдущую модель, имевшую восьмисекундную задержку.
Исследователи из Калифорнийского университета в Беркли и Калифорнийского университета в Сан-Франциско разработали специализированную систему интерфейса «мозг-компьютер», способную восстанавливать естественную речь у 47-летней женщины с квадриплегией. Сегодня Энн помогает исследователям из Калифорнийского университета в Сан-Франциско и Калифорнийского университета в Беркли разрабатывать технологию BCI, которая в будущем позволит людям, подобным ей, общаться более естественно с помощью цифрового аватара, сопоставляющего выражения лица с генерируемой речью.
Гопала Ануманчипалли, доцент кафедры электротехники и компьютерных наук Калифорнийского университета в Беркли и соавтор исследования, опубликованного в понедельник в журнале Nature Neuroscience, подтвердил, что имплантированное устройство, протестированное на Энн, преобразовало «ее намерение говорить в беглые предложения». Джонатан Брумберг из Лаборатории речи и прикладной нейронауки Канзасского университета, который также ознакомился с результатами, приветствовал эти достижения и заявил Associated Press , что это «довольно большой шаг вперед в области нейронауки».
Технология интерфейса мозг-компьютер позволила женщине восстановить речь спустя почти 20 лет
Чтение мыслей уже не за горами
Революционный прогресс в области интерфейсов «мозг-компьютер»: новый имплантат преобразует мысли в речь в реальном времени всего за 3 секунды – решающий шаг для естественного общения при параличе.
Исследование, опубликованное в журнале Nature Neuroscience, показывает, как алгоритмы ИИ… pic.twitter.com/XdGhrBlU63
— Chubby♨️ (@kimmonismus) 1 апреля 2025 г.
Женщина, парализованная после инсульта, вернула себе голос после почти двух десятилетий молчания благодаря экспериментальному интерфейсу «мозг-компьютер», разработанному и специально адаптированному для её случая исследователями из Калифорнийского университета в Беркли и Калифорнийского университета в Сан-Франциско. В исследовании, опубликованном в журнале Nature Neuroscience 31 марта, использовался искусственный интеллект для перевода мыслей участницы, известной как «Энн», в естественную речь в режиме реального времени.
Ануманчипалли объяснил, что интерфейс считывает нейронные сигналы с помощью сетки электродов, размещенных на речевом центре головного мозга. Он добавил, что очевидно, что существуют состояния — такие как БАС, инсульт ствола головного мозга (как в случае с Анной) или травма — при которых тело становится недоступным, и человек оказывается «запертым», сохраняя когнитивные функции, но не в состоянии двигаться или говорить. Ануманчипалли отметил, что, хотя в создании искусственных конечностей достигнут значительный прогресс, восстановление речи остается более сложной задачей.
«В отличие от зрения, движения или чувства голода, общих для других видов, речь отличает нас от них. Уже одно это делает её увлекательной темой для исследований»
–Гопала Ануманчипалли
Однако Ануманчипалли признал, что механизм возникновения интеллектуального поведения в нейронах и коре головного мозга до сих пор остается одной из главных загадок. В исследовании использовался интерфейс мозг-компьютер для создания прямой связи между электрическими сигналами мозга Анны и компьютером.
Новое устройство интерфейса мозг-компьютер превосходит предыдущие версии, в которых наблюдались задержки
Инновационный метод, разработанный американскими исследователями, устранил досадную задержку, которая преследовала предыдущие версии технологии, анализируя активность мозга женщины с интервалом в 80 миллисекунд и преобразуя ее в синтезированную версию ее голоса. Ряд проектов по переводу речи с помощью интерфейса мозг-компьютер показали положительные результаты, каждый из которых направлен на сокращение времени, необходимого для генерации речи из мыслей.
Согласно Science Alert, большинство существующих методов интерфейса мозг-компьютер требуют, чтобы программное обеспечение могло расшифровать «полный фрагмент текста», что может значительно увеличить время между началом речи и её произнесением.
В отчете, опубликованном исследователями из Калифорнийского университета в Беркли и Сан-Франциско, сообщается, что улучшение задержки синтеза речи и скорости декодирования имеет важное значение для динамичного разговора и беглой коммуникации. Объединенная группа исследователей из Калифорнийского университета объяснила, что связанные с интерфейсом мозг-компьютер, усугубляются дополнительным временем, необходимым для воспроизведения синтезированной речи, и временем, которое требуется слушателям для понимания синтезированного звука.
Большинство существующих методов, как сообщается, основаны на обучении интерфейса «говорящим» путем открытого воспроизведения звуков, что представляет собой проблему при предоставлении программному обеспечению для декодирования достаточного количества данных для людей, которые давно не практиковались или всегда испытывали трудности с речью. Чтобы преодолеть обе эти проблемы, исследователи из Калифорнийского университета обучили гибкую нейронную сеть глубокого обучения на «сенсомоторной активности коры головного мозга» 47-летней участницы, которая молча «произносила» 100 уникальных предложений из словаря, насчитывающего чуть более 1000 слов.

