カリフォルニア大学の研究者たちは、2005年に脳卒中を患い、声が出なくなったアン・ジョンソンさんの脳信号を、AI駆動のブレイン・コンピュータ・インターフェース(BCI)を用いてリアルタイムの音声に変換しました。このシステムは、AlexaやSiriなどのデバイスに搭載されている技術と同様の技術を採用し、8秒の遅延があった以前のモデルを改良しました。.
カリフォルニア大学バークレー校とカリフォルニア大学サンフランシスコ校の研究者たちは、を開発しました。現在、アンはカリフォルニア大学サンフランシスコ校とカリフォルニア大学バークレー校の研究者たちが開発するBCI技術に協力しており、将来的には、彼女のような人々が、生成された発話と表情を一致させるデジタルアバターを通して、より自然なコミュニケーションをとれるようになることを期待しています。
カリフォルニア大学バークレー校の電気工学・コンピュータサイエンス科助教授で、月曜日にネイチャー・ニューロサイエンス誌に掲載された研究論文の共著者であるゴパラ・アヌマンチパリ氏は、アンちゃんにテストされた埋め込み型デバイスが「彼女の発話意図を流暢な文章に変換」したことを確認した。カンザス大学音声・応用神経科学研究所のジョナサン・ブルンバーグ氏もこの研究結果を検証し、この進歩を歓迎し、 AP通信、これは「神経科学分野における非常に大きな進歩」だと語った。
BCI技術により、女性は20年近くぶりに発話能力を取り戻すことができた。
心を読む力がやってくる
脳コンピューターインターフェースの画期的な進歩: 新しいインプラントはわずか 3 秒で思考をリアルタイムの音声に変換します。これは麻痺患者の自然なコミュニケーションにとって重要なステップです。.
Nature Neuroscience に掲載されたこの研究は、AI アルゴリズムがどのように… pic.twitter.com/XdGhrBlU63
— Chubby♨️ (@kimmonismus) 2025年4月1日
脳卒中により麻痺した女性が、約20年間の沈黙の後、カリフォルニア大学バークレー校とカリフォルニア大学サンフランシスコ校の研究者によって開発され、彼女のケースに合わせて特別にカスタマイズされた実験的な脳コンピューターインターフェース(BCI)によって声を取り戻しました。3月31日にNature Neuroscience誌に掲載されたこの研究では、人工知能(AI)を用いて、「アン」として知られる被験者の思考をリアルタイムで自然な音声に変換しました。.
アヌマンチパリ氏は、このインターフェースは脳の言語中枢に電極グリッドを配置して神経信号を読み取ると説明した。彼はさらに、筋萎縮性側索硬化症(ALS)、脳幹卒中(アンの場合のように)、あるいは外傷など、身体にアクセスできなくなり、認知機能は正常だが動くことも話すこともできない「ロックイン」状態になる疾患が存在することは明らかだと付け加えた。アヌマンチパリ氏は、義肢の開発は大きく進歩しているものの、言語能力の回復は依然としてより複雑であると指摘した。.
「視覚、運動、空腹といった他の種と共有されている機能とは異なり、言語は私たちを他の種とは区別するものです。それだけでも、言語は魅力的な研究テーマなのです。」
–ゴパラ・アヌマンチパリ
しかし、アヌマンチパリ氏は、ニューロンや皮質組織から知的行動がどのように発現するかは依然として大きな未解明点の一つであることを認めた。この研究では、BCIを用いてアンの脳の電気信号とコンピューターを直接繋ぐ経路を構築した。.
新しいBCIデバイスは、遅延があった以前のバージョンよりも改善されています
米国の研究者による革新的な手法は、彼女の脳活動を80ミリ秒単位で分析し、それを合成音声に変換することで、従来の技術を悩ませていた煩わしい遅延を解消しました。最近、思考から音声を生成する時間を短縮することを目指したBCI音声翻訳プロジェクトが数多く実施され、良好な成果を上げています
Science Alert によると、既存の BCI 方法のほとんどでは、ソフトウェアが意味を解読する前に「テキストの完全な塊」を考慮する必要があり、音声の開始から発声までの数秒が大幅に長引く可能性があるという。.
カリフォルニア大学バークレー校とサンフランシスコ校の研究者らが発表した報告書は、音声合成の遅延とデコード速度の改善が、ダイナミックな会話とスムーズなコミュニケーションに不可欠であることを明らかにしました。カリフォルニア大学の共同チームは、 BCI音声の遅延は、音声合成の再生に必要な追加時間と、聞き手が合成音声を理解するのにかかる時間によってさらに悪化すると説明しました。
既存の方法の多くは、「話者」が実際に発声動作をすることでインターフェースをトレーニングするという方法に依存していたと報告されていますが、これは、練習不足の人や、発声に常に困難を抱えている人に十分なデータをデコードソフトウェアに提供するという点で課題となります。これらのハードルを克服するために、カリフォルニア大学の研究者たちは、47歳の被験者が1,000語強の語彙から100個の異なる文を黙読している間の「感覚運動皮質活動」に基づいて、柔軟なディープラーニングニューラルネットワークをトレーニングしました。.

