DeepSeek prezentuje modele V3.2: Nowy poziom wydajności w sztucznej inteligencji open-source
Edytowane przez: Veronika Radoslavskaya
Firma DeepSeek z siedzibą w Hangzhou, specjalizująca się w sztucznej inteligencji, ogłosiła 1 grudnia 2025 roku wprowadzenie na rynek dwóch nowych, eksperymentalnych modeli AI: DeepSeek-V3.2 oraz DeepSeek-V3.2-Speciale. To posunięcie stawia tego dewelopera open-source w bezpośredniej konfrontacji z komercyjnymi flagowcami, ustanawiając nowe standardy efektywności i osiągając konkurencyjność w kluczowych obszarach. Według zapewnień DeepSeek, integracja zaawansowanych zdolności rozumowania z autonomicznym wykonywaniem zadań stanowi istotny krok naprzód w architekturze platformy, udowadniając, że systemy otwarte wciąż są groźnym rywalem dla wiodących, zamkniętych modeli z Doliny Krzemowej.
Kluczowym przełomem technologicznym, który umożliwił osiągnięcie tej wydajności, jest mechanizm DeepSeek Sparse Attention (DSA). Ta innowacja architektoniczna znacząco redukuje złożoność obliczeniową, która tradycyjnie towarzyszy przetwarzaniu długich kontekstów. Dzięki temu model utrzymuje błyskawiczne prędkości wnioskowania, jednocześnie drastycznie obniżając koszty obliczeniowe. Podstawowa wersja, DeepSeek-V3.2, wykorzystuje właśnie tę architekturę DSA, rozbudowując możliwości wykorzystania narzędzi (tool-use) zapoczątkowane w modelu V3.1.
Nowy wariant V3.2 oferuje elastyczność operacyjną, wspierając korzystanie z zewnętrznych zasobów, takich jak egzekutory kodu, kalkulatory czy wyszukiwarki internetowe. Użytkownicy mogą wybierać między trybem działania „z myślą” (thought) a trybem „bez myśli” (no-thought). Model ten wykazuje znakomite rezultaty w praktycznych zadaniach programistycznych, potwierdzone na zbiorze SWE-bench Verified, a także cieszy się wysokimi ocenami społeczności w środowiskach konkurencyjnych. To umiejscawia go w czołówce pod względem wydajności dla zrównoważonych, ogólnych obciążeń roboczych.
Wariant specjalistyczny, DeepSeek-V3.2-Speciale, został zaprojektowany z myślą o maksymalnej wydajności w skomplikowanych obliczeniach matematycznych oraz w wyzwaniach wymagających wieloetapowego, pogłębionego rozumowania. DeepSeek twierdzi, że ten model osiąga wyniki porównywalne z Google Gemini-3 Pro w wybranych testach rozumowania. Co więcej, firma podała, że DeepSeek-V3.2-Speciale uzyskał złoty poziom wydajności na zestawach danych symulujących edycje 2025 prestiżowych globalnych olimpiad, w tym Międzynarodowej Olimpiady Matematycznej (IMO) oraz Międzynarodowej Olimpiady Informatycznej (IOI).
Dostęp do wysokoobliczeniowego modelu DeepSeek-V3.2-Speciale jest obecnie ograniczony. Jest on udostępniany za pośrednictwem tymczasowego punktu końcowego API do 15 grudnia 2025 roku, co sugeruje fazę kontrolowanego wdrażania. Natomiast standardowy model V3.2 jest dostępny od ręki poprzez zgłoszenie aplikacji oraz interfejs sieciowy. Ten dynamiczny postęp w dziedzinie AI wyraźnie sygnalizuje, że ramy open-source w błyskawicznym tempie zyskują funkcjonalną przewagę nad systemami zamkniętymi, szczególnie w najbardziej wymagających domenach.
Źródła
Gestión
DeepSeek - Wikipedia
DeepSeek-V3.2 Release
2025 Major Release: How Does DeepSeekMath-V2 Achieve Self-Verifying Mathematical Reasoning? Complete Technical Analysis - DEV Community
DeepSeek launches two new AI models to take on Gemini and ChatGPT | Mint
DeepSeek releases AI model 'DeepSeek-Math-V2' specialized for mathematical reasoning, achieving a gold medal-level accuracy rate at the International Mathematical Olympiad - GIGAZINE
Przeczytaj więcej wiadomości na ten temat:
Czy znalazłeś błąd lub niedokładność?
Rozważymy Twoje uwagi tak szybko, jak to możliwe.
