德研究揭示AI亲密感悖论:自我表露机制与教育伦理挑战
编辑者: Olga Samsonova
德国弗莱堡大学与海德堡大学研究人员近期发表于《传播心理学》期刊的一项研究,探讨了人工智能(AI)在情感交流中构建亲密感的现象及其潜在的伦理影响。该研究在参与者不知情的情况下进行测试,结果显示,AI生成的回应在营造亲密感方面可与人类对话者媲美,甚至在聚焦情感的交流中表现超越人类,成功占据上风。这一发现为理解人机交互中的情感动态提供了新的视角。
研究深入分析了这种现象背后的核心机制,指出参与者之所以感到与AI更为亲近,关键在于AI展现了更高程度的“自我表露”,即AI主动披露了更多模拟的个人化信息。这一观察与关系心理学中“脆弱性展示加速信任建立”的原则相印证。然而,一旦参与者明确知晓对话对象是机器,所感知的亲密程度和信任度便会急剧下降,导致交流深度受限。这种基于信息披露的信任构建模式,揭示了人类情感互动中对回应背后“意识”的依赖。
这些初步研究结果预示着AI在心理支持、照护服务以及教育辅助等领域,特别是面向个性化信息揭示的“AI伴侣”服务中,具有显著的应用潜力。例如,在教育领域,微软亚洲研究院与华东师范大学合作开发的中文写作智能辅导系统“小花狮”,即体现了AI在解决因材施教这一核心痛点方面的探索。
研究人员同时发出审慎警告,强调个体可能在未完全意识的情况下与AI建立社会性联结,这可能催生对AI的依赖,并潜在削弱现实世界中的社交技能。这种依赖性风险与当前市场上“AI伴侣”可能涉及的隐私侵犯、不良信息传播等伦理问题并存。鉴于此,围绕AI情感连接的伦理和监管议题在当前愈发关键,需要建立清晰的框架以确保人机交互的透明性,防止情感联结被滥用,确保人工智能成为促进高质量发展的积极因素。
11 查看
来源
ČT24 - Nejdůvěryhodnější zpravodajský web v ČR - Česká televize
Artificial Intelligence can generate a feeling of intimacy - Uni Freiburg
Research When Artificial Intelligence Creates Stronger Emotional Closeness than a Human - Heidelberg University
Teaching AI Ethics 2026: Emotions and Social Chatbots - Leon Furze
AI chatbots and digital companions are reshaping emotional connection
你发现了错误或不准确的地方吗?我们会尽快考虑您的意见。
