ニューヨーク大学(NYU)の研究者たちによる最新の研究は、人間の脳が複数の言語要素を驚くべき速度で同時に処理する能力を明らかにしました。この複雑な神経プロセスは、情報が互いに干渉することなく専用の経路を移動する、広大な地下鉄システム(メトロポリタン)の機能に例えられています。この画期的な発見は、「米国科学アカデミー紀要(PNAS)」に掲載され、脳がどのようにして矛盾するデータを効率的に管理し、非常に短い時間間隔で異なる皮質領域を通じて再ルーティングすることで、並列処理を実現しているかを実証しています。
スタンフォード大学心理学部およびウー・ツァイ神経科学研究所のローラ・グウィリアムズ氏が主導したこの研究では、短い物語を聞いた英語のネイティブスピーカー21名から得られた脳磁図(MEG)データが分析されました。科学者たちは、脳が言語的特徴の複雑な構造をいかに継続的に維持し、更新しているかを記録しました。この情報処理のカスケードは、最も微細な音韻(フォネティック)レベルから、包括的な意味論(セマンティック)的意味に至るまで、あらゆる階層を網羅しています。各レベルでの情報切り替えの速度は、対応する言語要素の複雑さに応じて決定されることが判明しました。
この効率的な情報処理のメカニズムは、「階層的動的符号化(Hierarchical Dynamic Coding: HDC)」と名付けられました。HDCは、脳が時間経過の中で情報を保持しつつ、異なる音や単語の単位間の重複を最小限に抑えることを可能にします。本研究の共著者であるNYU心理学・言語学教授のアレク・マランツ氏は、このシステムが、脳がいかに急速に展開する言語を構造化し、理解するかを説明するものだと指摘しています。これは、言語の解釈と、その根底にある神経生理学的基盤との間に直接的な関連性を確立するものです。
イントネーションから意味に至るまで、メッセージのあらゆる側面が必要な速度で処理されるHDCの原理を理解することは、人工知能(AI)の発展に新たな展望をもたらします。従来の自然言語処理(NLP)システムがしばしば逐次的な読み取りに依存してきたのに対し、この並列性の原則は、人間の知覚がより深く、多次元的に組織化されていることを示唆しています。これは、トランスフォーマーのようなアーキテクチャにおける「アテンション(注意機構)」メカニズムに類似しています。言語の理解は、単に情報を受け取る行為ではなく、全体的かつ瞬時の理解を可能にする、複雑で多層的なプロセスなのです。