密歇根大学的研究人员开发了一项开创性的人工智能模型,能够分析犬吠并识别其中的情绪和特定情境,这标志着动物沟通理解领域的一大飞跃。
该模型名为 Wav2Vec2,最初是为人类语音分析设计的,现已成功应用于解读狗狗的叫声。研究团队使用来自74只不同品种、年龄和性别的狗狗的录音进行训练,这些录音涵盖了狗狗与主人互动、表达沮丧等多种自然情境。初步测试显示,该系统在识别狗狗情绪方面达到了超过70%的准确率。研究人员相信,随着更多数据的积累和更多狗狗的参与,这一准确率有望进一步提升。
这项技术潜力巨大,能够帮助人们更早地发现狗狗的压力迹象,从而改善它们的照料。在训练过程中,该模型可以根据狗狗的情绪状态调整训练方法。对于家庭而言,连接到该系统的设备可以在狗狗表现出疼痛或焦虑时发出警报,这对年长或需要特别关注的狗狗尤为有益。
研究人员发现,利用在人类语音上预训练过的模型,再针对犬类发声进行微调,比从零开始训练模型效果更佳。密歇根大学的研究团队在2024年6月发表的研究中指出,Wav2Vec2模型在四项分类任务中均表现出色,准确率高达70%,并且优于专门针对犬吠数据训练的其他模型。这表明,人类语言模式中蕴含的某些结构和规律可能对理解其他物种的沟通方式具有普遍的指导意义。
这项技术的进步不仅限于狗狗。类似的研究,如地球物种项目(Earth Species Project)开发的NatureLM-audio,正在探索利用人工智能解码其他动物的叫声和行为,能够识别物种并区分其性别和生命阶段。这些努力共同指向一个更广阔的未来:通过先进科技,人类能够更深入地理解自然界,并与所有生命形式建立更和谐的关系。