DeepSeek 釋出 V3.2 模型系列,樹立前沿 AI 效率新標竿
编辑者: Veronika Radoslavskaya
總部位於杭州的人工智慧公司 DeepSeek,於 2025 年 12 月 1 日正式發表了兩款全新的實驗性 AI 模型:DeepSeek-V3.2 與 DeepSeek-V3.2-Speciale。這次的發布,使這家開源開發商得以透過設定全新的效率標準,並在特定領域達到與業界領先的專有旗艦模型相媲美的表現,從而與矽谷的封閉源模型展開正面競爭。
DeepSeek 強調,其平台在架構上實現了重大突破,成功整合了先進的推理能力與自主任務執行功能。這項進展有力地證明了開源系統在面對頂尖封閉模型時,依然具備強勁的競爭實力。
推動此次效率飛躍的核心技術,在於其獨創的 DeepSeek 稀疏注意力(DeepSeek Sparse Attention, DSA)機制。這項架構上的創新,有效降低了處理長文本上下文時所需涉及的運算複雜度。結果便是,模型在維持極速推理速度的同時,大幅削減了運算資源的消耗。
主要的標準版本 DeepSeek-V3.2,正是建立在 DSA 架構之上,並繼承了 V3.1 版本中引入的工具使用能力。此新版本支援調用外部工具,例如程式碼執行器、計算機以及網路搜尋引擎,並提供「思考」與「無思考」兩種操作模式,賦予使用者極大的靈活性。在實際的編碼挑戰,例如 SWE-bench Verified 測試中,該模型展現出卓越的性能。同時,它在社群的競爭性評估中也獲得高度評價,確立了其在平衡性通用工作負載中的高性能地位。
與此同時,專門化的變體 DeepSeek-V3.2-Speciale 則專為處理極為複雜的數學運算及冗長的、多步驟的推理任務而設計。DeepSeek 宣稱,Speciale 版本的推理評估表現,在特定領域已能與 Google 的 Gemini-3 Pro 匹敵。
更令人矚目的是,該公司報告指出,DeepSeek-V3.2-Speciale 在模擬 2025 年國際數學奧林匹亞(IMO)及國際資訊學奧林匹亞(IOI)等全球頂尖賽事的基準資料集上,達到了 金牌級別的表現。目前,高運算需求的 DeepSeek-V3.2-Speciale 僅透過 臨時 API 端點開放至 2025 年 12 月 15 日,顯示公司正處於審慎的部署階段。相較之下,標準版的 V3.2 模型已可透過申請及網頁介面立即使用。AI 技術發展的加速態勢清晰地表明,開源框架正以前所未有的速度,在複雜領域中追趕並迎頭趕上專有系統的性能。
來源
Gestión
DeepSeek - Wikipedia
DeepSeek-V3.2 Release
2025 Major Release: How Does DeepSeekMath-V2 Achieve Self-Verifying Mathematical Reasoning? Complete Technical Analysis - DEV Community
DeepSeek launches two new AI models to take on Gemini and ChatGPT | Mint
DeepSeek releases AI model 'DeepSeek-Math-V2' specialized for mathematical reasoning, achieving a gold medal-level accuracy rate at the International Mathematical Olympiad - GIGAZINE
閱讀更多有關此主題的新聞:
发现错误或不准确的地方吗?
我们会尽快处理您的评论。
