大型語言模型在情商測驗創建方面表現出色
最新研究表明,大型語言模型 (LLM) 不僅可以解決,還可以創建情商 (EI) 測驗。這項由 Schlegel、Sommer 和 Mortillaro 於 2025 年發表在《通訊心理學》上的研究,突顯了 LLM 在理解人類情感方面的能力。
情商傳統上是人類的特徵,包括識別、理解和管理情緒。該研究使用 Transformer 架構來評估 LLM 如何與情感細微的內容互動。這些模型在回答和編寫可信的情商測驗方面表現出色。
LLM 在龐大的文本語料庫上進行訓練,捕捉語義的細微之處、情感線索和社會動態。研究人員分析了模型對情商測驗題的反應,並將其與人類基準進行比較。這些模型展示了模擬情感推理的能力。
微調協議增強了情感的細微之處,提高了對情感詞彙的敏感性。注意力可視化表明,LLM 在預測情感能力時,會優先考慮輸入文本的不同部分。這表明 LLM 隱含地識別情感效價和上下文相關性。
LLM 創建新的情商評估,開闢了心理工具的新領域。人工智能模型可以自主生成看似合理的情商問題。這表明人工智能與心理科學之間存在一種新的協同作用。
雖然 LLM 在情商任務中表現出能力,但問題仍然是它們是否真正理解情緒。該研究強調性能是一種可衡量的結果,而不是主觀的情感意識。人工智能生成的情商評估可以加強診斷和個性化治療。
這些模型對訓練數據的依賴使它們暴露於文本來源中固有的偏見。研究人員提倡繼續干預模型訓練。隨著模型複雜性的提高,需要進行縱向研究,以監測人工智能中情商能力的演變。
這項研究展示了人工智能、心理學和語言學的交叉。Schlegel、Sommer 和 Mortillaro 催化了一場範式轉變。這將影響未來人工智能的發展和情感評估方法。
進一步的跨學科合作對於負責任地利用語言模型的力量至關重要。這確保了情感機器智能豐富人類體驗。人工智能夥伴可以協助、增強甚至挑戰我們對情感的理解。