DeepSeek präsentiert V3.2 Modelle und setzt neue Maßstäbe für Effizienz bei Spitzen-KI
Bearbeitet von: Veronika Radoslavskaya
Die in Hangzhou ansässige Firma für künstliche Intelligenz, DeepSeek, gab am 1. Dezember 2025 die Einführung von zwei neuen experimentellen KI-Modellen bekannt: DeepSeek-V3.2 und DeepSeek-V3.2-Speciale. Mit dieser Vorstellung positioniert sich der Open-Source-Entwickler in direkte Konkurrenz zu proprietären Flaggschiff-Modellen, indem neue Effizienzstandards gesetzt und in spezifischen Anwendungsbereichen eine wettbewerbsfähige Parität erreicht wird.
DeepSeek betont, dass die Integration fortschrittlicher Schlussfolgerungsfähigkeiten mit der autonomen Aufgabenabwicklung einen bedeutenden architektonischen Fortschritt für ihre Plattform darstellt. Dies beweist eindrücklich, dass Open-Source-Systeme weiterhin hartnäckig gegen die führenden Closed-Source-Modelle aus dem Silicon Valley bestehen können.
Der technologische Kern, der diese Effizienzsteigerung vorantreibt, ist der DeepSeek Sparse Attention (DSA)-Mechanismus. Diese architektonische Neuerung reduziert die rechnerische Komplexität, die typischerweise mit der Verarbeitung langer Kontexte verbunden ist. Dies ermöglicht es dem Modell, schnelle Inferenzgeschwindigkeiten beizubehalten und gleichzeitig die Rechenkosten signifikant zu senken. Man könnte sagen, DeepSeek hat hier einen echten „Stein des Anstoßes“ für die Branche gelegt.
Die Basisversion, DeepSeek-V3.2, nutzt diese DSA-Architektur und baut auf der im Vorgänger V3.1 eingeführten Fähigkeit zur Werkzeugnutzung auf. Diese neue Iteration unterstützt die Verwendung externer Hilfsmittel, darunter Code-Executors, Taschenrechner und Suchmaschinen. Sie bietet Flexibilität durch wählbare Betriebsmodi, entweder mit expliziter „Gedanken“-Kette oder im direkten „No-Thought“-Modus.
Das Modell zeigt eine starke Leistung bei realen Programmierherausforderungen, wie sie im SWE-bench Verified-Set vorkommen. Zudem wird es von der Community in Wettbewerbsszenarien hoch bewertet. Damit etabliert sich DeepSeek-V3.2 als eine leistungsstarke Option für allgemeine Arbeitslasten, die ein ausgewogenes Verhältnis zwischen Geschwindigkeit und Genauigkeit erfordern.
Die spezialisierte Variante, DeepSeek-V3.2-Speciale, wurde hingegen für Höchstleistungen bei komplexen mathematischen Berechnungen und ausgedehnten, mehrstufigen Schlussfolgerungsaufgaben konzipiert. DeepSeek gibt an, dass diese Speciale-Version in spezifischen Schlussfolgerungsbewertungen Leistungsmetriken erreicht, die denen von Googles Gemini-3 Pro ebenbürtig sind.
Darüber hinaus meldet das Unternehmen, dass DeepSeek-V3.2-Speciale auf Benchmark-Datensätzen, die die 2025er-Versionen renommierter globaler Wettbewerbe nachbilden, eine Gold-Level-Performance erzielt hat. Dies betrifft Prüfungen wie die Internationale Mathematik-Olympiade (IMO) und die Internationale Informatik-Olympiade (IOI). Es ist ein deutliches Zeichen, dass die Open-Source-Gemeinschaft in diesen hochspezialisierten Bereichen aufholt.
Der Zugriff auf das rechenintensive DeepSeek-V3.2-Speciale ist derzeit auf einen temporären API-Endpunkt bis zum 15. Dezember 2025 beschränkt. Dies deutet auf eine kontrollierte Einführungsphase hin. Das Standardmodell V3.2 ist hingegen sofort über Antrag und Webinterface verfügbar. Dieses rasante Tempo der KI-Entwicklung signalisiert, dass Open-Source-Frameworks in komplexen Domänen schnell zu funktional gleichwertigen Alternativen zu proprietären Systemen avancieren.
Quellen
Gestión
DeepSeek - Wikipedia
DeepSeek-V3.2 Release
2025 Major Release: How Does DeepSeekMath-V2 Achieve Self-Verifying Mathematical Reasoning? Complete Technical Analysis - DEV Community
DeepSeek launches two new AI models to take on Gemini and ChatGPT | Mint
DeepSeek releases AI model 'DeepSeek-Math-V2' specialized for mathematical reasoning, achieving a gold medal-level accuracy rate at the International Mathematical Olympiad - GIGAZINE
Weitere Nachrichten zu diesem Thema lesen:
Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?
Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.
