最近の研究によると、大規模言語モデル(LLM)は、感情知能(EI)テストを解決するだけでなく、作成することもできます。この研究は、2025年にシュレーゲル、ゾンマー、モルティラーロによってCommunications Psychologyに掲載され、人間の感情を理解するLLMの能力を強調しています。
伝統的に人間の特性である感情知能は、感情を認識、理解、管理することを含みます。この研究では、LLMが感情的にニュアンスのあるコンテンツとどのように関わるかを評価するために、トランスフォーマーアーキテクチャを使用しています。モデルは、信頼できるEIテストへの回答と作成に優れていました。
LLMは、意味の微妙さ、感情的な手がかり、社会的なダイナミクスを捉えた膨大なテキストコーパスでトレーニングされています。研究者は、モデルのEIテスト項目への応答を分析し、人間のベンチマークと比較しました。モデルは、感情的な推論をシミュレートする能力を示しました。
ファインチューニングプロトコルは、感情的な語彙への感度を高め、感情的な微妙さを高めました。注意の可視化は、LLMが感情的な能力を予測するときに、入力テキストの異なる部分を優先することを示しました。これは、LLMが感情的な価数と文脈上の関連性を暗黙的に認識していることを示しています。
LLMによる新しいEI評価の作成は、心理学的ツールに新たなフロンティアを開きます。AIモデルは、自律的に妥当なEI質問を生成できます。これは、AIと心理科学の間の新しい相乗効果を示唆しています。
LLMはEIタスクで能力を示していますが、感情を本当に理解しているかどうかは依然として疑問です。この研究では、主観的な感情的認識ではなく、測定可能な結果としてのパフォーマンスを強調しています。AIが生成したEI評価は、診断と治療の個別化を強化する可能性があります。
モデルのトレーニングデータへの依存は、テキストソースに固有のバイアスにさらされます。研究者は、モデルトレーニングへの継続的な介入を提唱しています。モデルの洗練度が増すにつれて、AIにおける感情知能能力の進化を監視するために、長期的な研究が必要です。
この研究は、AI、心理学、言語学の交差点を示しています。シュレーゲル、ゾンマー、モルティラーロは、パラダイムシフトを触媒しました。これは、将来のAI開発と感情評価方法論に影響を与えます。
言語モデルの力を責任を持って活用するには、さらなる学際的な協力が不可欠です。これにより、感情的な機械知能が人間の経験を豊かにすることが保証されます。AIパートナーは、私たちの感情的な理解を支援、増強、または挑戦することさえできます。