大型语言模型在情商测试创建方面表现出色

编辑者: Vera Mo

大型语言模型在情商测试创建方面表现出色

最新研究表明,大型语言模型 (LLM) 不仅可以解决,还可以创建情商 (EI) 测试。这项由 Schlegel、Sommer 和 Mortillaro 于 2025 年发表在《通讯心理学》上的研究,突显了 LLM 在理解人类情感方面的能力。

情商传统上是人类的特征,包括识别、理解和管理情绪。该研究使用 Transformer 架构来评估 LLM 如何与情感细微的内容互动。这些模型在回答和编写可信的情商测试方面表现出色。

LLM 在庞大的文本语料库上进行训练,捕捉语义的细微之处、情感线索和社会动态。研究人员分析了模型对情商测试题的反应,并将其与人类基准进行比较。这些模型展示了模拟情感推理的能力。

微调协议增强了情感的细微之处,提高了对情感词汇的敏感性。注意力可视化表明,LLM 在预测情感能力时,会优先考虑输入文本的不同部分。这表明 LLM 隐含地识别情感效价和上下文相关性。

LLM 创建新的情商评估,开辟了心理工具的新领域。人工智能模型可以自主生成看似合理的情商问题。这表明人工智能与心理科学之间存在一种新的协同作用。

虽然 LLM 在情商任务中表现出能力,但问题仍然是它们是否真正理解情绪。该研究强调性能是一种可衡量的结果,而不是主观的情感意识。人工智能生成的情商评估可以加强诊断和个性化治疗。

这些模型对训练数据的依赖使它们暴露于文本来源中固有的偏见。研究人员提倡继续干预模型训练。随着模型复杂性的提高,需要进行纵向研究,以监测人工智能中情商能力的演变。

这项研究展示了人工智能、心理学和语言学的交叉。Schlegel、Sommer 和 Mortillaro 催化了一场范式转变。这将影响未来人工智能的发展和情感评估方法。

进一步的跨学科合作对于负责任地利用语言模型的力量至关重要。这确保了情感机器智能丰富人类体验。人工智能伙伴可以协助、增强甚至挑战我们对情感的理解。

来源

  • Scienmag: Latest Science and Health News

你发现了错误或不准确的地方吗?

我们会尽快考虑您的意见。