DeepSeek Lança Modelos V3.2, Estabelecendo Novos Padrões de Eficiência para IA de Fronteira
Editado por: Veronika Radoslavskaya
A DeepSeek, empresa sediada em Hangzhou, anunciou em 1º de dezembro de 2025 a introdução de dois novos modelos experimentais de inteligência artificial: o DeepSeek-V3.2 e o DeepSeek-V3.2-Speciale. Este lançamento posiciona a desenvolvedora de código aberto em concorrência direta com os modelos proprietários de ponta, estabelecendo novos marcos de eficiência e alcançando paridade competitiva em domínios específicos. A DeepSeek sustenta que a fusão de capacidades avançadas de raciocínio com a execução autônoma de tarefas representa um avanço arquitetônico significativo para sua plataforma, demonstrando que os sistemas de código aberto mantêm-se vigorosamente competitivos frente aos principais modelos de código fechado oriundos do Vale do Silício.
O cerne da inovação tecnológica que impulsiona essa eficiência reside no mecanismo denominado DeepSeek Sparse Attention (DSA). Esta novidade arquitetônica tem o poder de mitigar a complexidade computacional que historicamente acompanha o processamento de contextos extensos. Como resultado, o modelo consegue manter velocidades de inferência rápidas ao mesmo tempo em que reduz substancialmente os custos computacionais inerentes. A versão principal, o DeepSeek-V3.2, utiliza essa arquitetura DSA e aprimora a funcionalidade de uso de ferramentas, introduzida na versão V3.1.
Este novo modelo suporta a integração de ferramentas externas, tais como executores de código, calculadoras e mecanismos de busca, oferecendo flexibilidade operacional através de modos de operação tanto com 'pensamento' quanto sem ele. O desempenho do modelo tem sido notável em desafios práticos de codificação, como o SWE-bench Verified, e tem recebido avaliações elevadas pela comunidade em ambientes competitivos, solidificando sua posição no patamar de alto desempenho para cargas de trabalho gerais e equilibradas.
A variante especializada, batizada de DeepSeek-V3.2-Speciale, foi meticulosamente projetada para atingir o desempenho máximo em cálculos matemáticos complexos e em desafios de raciocínio que exigem múltiplas etapas sequenciais. A DeepSeek afirma que esta versão Speciale alcança métricas de desempenho equiparáveis às do Gemini-3 Pro do Google em avaliações específicas de raciocínio.
Adicionalmente, a companhia reporta que o DeepSeek-V3.2-Speciale obteve desempenho de nível ouro em conjuntos de dados de referência que simulam as edições de 2025 de competições globais de prestígio, incluindo a Olimpíada Internacional de Matemática (IMO) e a Olimpíada Internacional de Informática (IOI).
O acesso ao DeepSeek-V3.2-Speciale, que exige alta capacidade computacional, está limitado a um endpoint de API temporário até 15 de dezembro de 2025, sinalizando uma fase de lançamento controlada, enquanto o modelo padrão V3.2 já está acessível imediatamente por meio de solicitação e interface web. Este ritmo acelerado de desenvolvimento em IA sugere que os frameworks de código aberto estão rapidamente se tornando funcionalmente competitivos com os sistemas proprietários em domínios complexos.
Fontes
Gestión
DeepSeek - Wikipedia
DeepSeek-V3.2 Release
2025 Major Release: How Does DeepSeekMath-V2 Achieve Self-Verifying Mathematical Reasoning? Complete Technical Analysis - DEV Community
DeepSeek launches two new AI models to take on Gemini and ChatGPT | Mint
DeepSeek releases AI model 'DeepSeek-Math-V2' specialized for mathematical reasoning, achieving a gold medal-level accuracy rate at the International Mathematical Olympiad - GIGAZINE
Leia mais notícias sobre este tema:
Encontrou um erro ou imprecisão?
Vamos considerar seus comentários assim que possível.
