阿里雲與月之暗面發表新一代推理模型:Qwen3-Max-Thinking 與 Kimi K2.5 領航 AI 技術新紀元

编辑者: Veronika Radoslavskaya

2026 年 1 月下旬,全球人工智慧技術領域迎來了重大的里程碑,兩款具備頂尖性能的旗艦模型在中國同步亮相。這兩款模型分別是阿里雲開發的 Qwen3-Max-Thinking 以及由月之暗面(Moonshot AI)推出的 Kimi K2.5。這次的同步發表不僅僅是技術更新,更代表了 AI 發展方向的重大轉變,業界正從單純的生成式模型,轉向以「推理為先」的架構,旨在應對更為複雜的邏輯推演與具備高度自主性的任務執行。

阿里雲於 2026 年 1 月 26 日正式對外發表了 Qwen3-Max-Thinking。這款推理模型的參數規模龐大,總數超過一兆(1 trillion),其核心設計是為了處理多步驟的邏輯綜合分析,並針對高難度的技術性問題提供精準的解決方案,為專業領域的 AI 應用樹立了新標竿。

  • 自適應工具調用:這項核心功能賦予模型在對話中自主選擇工具的能力,包括搜尋、記憶或程式碼解釋器。AI 能根據使用者的具體查詢,獨立判斷是否需要調用外部工具來驗證事實或進行複雜運算。
  • 推理時擴展(TTS):該模型利用推理時的運算擴展技術,允許系統在處理艱深難題時投入更多的「思考」資源。這種技術優化使其在 Arena-Hard v2 基準測試中取得了 90.2 的優異成績。
  • 基準測試表現:Qwen3-Max-Thinking 在多項推理測試中展現了極高的效率,特別是在科學運算、數學邏輯以及複雜的程式碼編寫任務中,其表現均處於業界領先地位。

緊接著在 2026 年 1 月 27 日,獲得阿里巴巴集團鼎力支持的月之暗面推出了 Kimi K2.5。這是一款開源且原生支持多模態的智能體(Agentic)模型,專為大規模數據處理與複雜任務的協調運作而優化,展現了開源生態系統的強大生命力。

  • 混合專家(MoE)架構:雖然 Kimi K2.5 的總參數規模同樣達到一兆,但透過 MoE 設計,在運作時僅需激活 320 億參數。該模型在預訓練階段使用了高達 15 兆個視覺與文本混合標記(tokens),具備強大的跨模態理解力。
  • 智能體集群模式:K2.5 引入了創新的「智能體集群」功能,能在單一專案中協調多達 100 個專門化的子智能體。在「集群」模式下,系統可自主引導這些智能體解決問題,無需預設工作流或人為干預。
  • 智能體運作效率:該模型專為企業級自動化設計,在 HLE 與 BrowseComp 等智能體基準測試中表現亮眼,其核心優勢在於多步驟規劃能力以及基於瀏覽器的自主研究功能。

儘管這兩款模型都建立在兆級參數的基礎之上,但它們的應用側重點各有千秋。阿里雲的 Qwen3-Max-Thinking 更加強調深度的迭代推理與工具的自主調度能力,適合需要嚴謹邏輯與技術深度的場景。

相比之下,月之暗面的 Kimi K2.5 則將重心放在多模態智能體的協作與大規模自主工作流的實現。這兩款模型的問世,無疑為 2026 年的 AI 技術發展奠定了堅實的基礎,也為未來的自動化應用與企業級 AI 轉型開闢了更多可能性。

11 浏览量

來源

  • europa press

  • Qwen Team

  • Moonshot AI Open Platform - Kimi Large Language Model API Service

  • Atlas Cloud

  • Vertu

  • Seeking Alpha - Power to Investors

发现错误或不准确的地方吗?我们会尽快处理您的评论。