カリフォルニア大学デービス校の研究者たちは、神経疾患により話す能力を失った人々のために、リアルタイムの会話能力を回復させる実験的な脳コンピューターインターフェース(BCI)を開発しました。
この技術は、脳の活動を音声に変換し、目立った遅延なしにデジタル音声路を作成します。BCIは、スピーチの試み中に患者の脳の電気的活動を解読するために人工知能を利用します。
このデバイスは、意図した単語だけでなく、イントネーション、トーン、強調などの自然なスピーチの特徴も再現します。これにより、より自然で表現力豊かなコミュニケーション形式が可能になります。
このシステムにより、筋萎縮性側索硬化症(ALS)の患者は、コンピューターを介して「話す」ことができ、イントネーションを変更し、単純なメロディーを「歌う」ことができました。合成された音声はしばしば理解可能であり、リスナーは単語のほぼ60%を正しく理解しました。
このプロセスは、参加者がフレーズを発音しようとしたときに収集されたデータで訓練された高度なAIアルゴリズムによって促進されます。アルゴリズムは、神経活動を目的の音にマッピングし、スピーチのニュアンスの合成を可能にし、参加者にBCI音声のケイデンスを制御させます。
この技術により、参加者は新しい単語を言い、間投詞を発することができました。Natureに掲載されたこの研究は、以前のBCIモデルからの大きな進歩を表しています。