2025年8月31日,中国科技公司美团正式发布并开源了其最新研发的大型人工智能模型LongCat-Flash-Chat。该模型采用了创新的混合专家(Mixture-of-Experts, MoE)架构,拥有5600亿总参数量,但每次上下文激活的参数量仅为186亿至313亿,平均约为270亿。这一设计显著优化了计算效率与模型性能,尤其在智能体(Agentic)任务方面表现出色,并实现了更快的推理速度,为复杂智能体应用提供了强大的支持。
LongCat-Flash-Chat的发布标志着美团在人工智能领域的深度布局和技术实力。该模型通过“零计算专家”机制,能够根据上下文动态分配计算资源,仅激活对当前任务至关重要的专家网络,从而大幅减少不必要的计算开销。这种稀疏激活的特性使得模型在保持强大能力的同时,能够实现高效的训练和推理。据了解,该模型在H800上的推理速度可达每秒100多个token,且输出成本极低,展现了其在成本效益方面的显著优势。
混合专家(MoE)架构作为一种先进的AI模型设计理念,近年来受到了广泛关注。它通过将大型模型分解为多个小型、专业化的“专家”网络,并由一个门控网络动态选择最适合处理特定输入的专家,从而在不显著增加计算成本的情况下,提升模型的整体性能和可扩展性。这种“分而治之”的策略,使得MoE模型在自然语言处理、计算机视觉等多个领域展现出优越的表现,能够更有效地处理多样化和复杂化的任务。
LongCat-Flash-Chat的开源,契合了当前中国人工智能领域蓬勃发展的趋势。近年来,中国企业在开源AI模型方面取得了显著进展,涌现出众多在国际排行榜上名列前茅的模型。美团此次的举措,不仅为全球开发者社区贡献了强大的AI工具,也进一步推动了AI技术的普及和创新应用。通过开源,美团旨在加速AI技术的迭代和协作,共同探索人工智能的无限可能,为行业发展注入新的活力。
该模型已在GitHub、Hugging Face等平台同步开源,用户也可通过官方网站longcat.ai进行体验。LongCat-Flash-Chat的出现,预示着AI技术正朝着更高效、更专业化、更易于获取的方向发展,为各行各业的智能化转型提供了新的机遇。