A DeepSeek, empresa sediada em Hangzhou, anunciou em 1º de dezembro de 2025 a introdução de dois novos modelos experimentais de inteligência artificial: o DeepSeek-V3.2 e o DeepSeek-V3.2-Speciale. Este lançamento posiciona a desenvolvedora de código aberto em concorrência direta com os modelos proprietários de ponta, estabelecendo novos marcos de eficiência e alcançando paridade competitiva em domínios específicos. A DeepSeek sustenta que a fusão de capacidades avançadas de raciocínio com a execução autônoma de tarefas representa um avanço arquitetônico significativo para sua plataforma, demonstrando que os sistemas de código aberto mantêm-se vigorosamente competitivos frente aos principais modelos de código fechado oriundos do Vale do Silício.
O cerne da inovação tecnológica que impulsiona essa eficiência reside no mecanismo denominado DeepSeek Sparse Attention (DSA). Esta novidade arquitetônica tem o poder de mitigar a complexidade computacional que historicamente acompanha o processamento de contextos extensos. Como resultado, o modelo consegue manter velocidades de inferência rápidas ao mesmo tempo em que reduz substancialmente os custos computacionais inerentes. A versão principal, o DeepSeek-V3.2, utiliza essa arquitetura DSA e aprimora a funcionalidade de uso de ferramentas, introduzida na versão V3.1.
Este novo modelo suporta a integração de ferramentas externas, tais como executores de código, calculadoras e mecanismos de busca, oferecendo flexibilidade operacional através de modos de operação tanto com 'pensamento' quanto sem ele. O desempenho do modelo tem sido notável em desafios práticos de codificação, como o SWE-bench Verified, e tem recebido avaliações elevadas pela comunidade em ambientes competitivos, solidificando sua posição no patamar de alto desempenho para cargas de trabalho gerais e equilibradas.
A variante especializada, batizada de DeepSeek-V3.2-Speciale, foi meticulosamente projetada para atingir o desempenho máximo em cálculos matemáticos complexos e em desafios de raciocínio que exigem múltiplas etapas sequenciais. A DeepSeek afirma que esta versão Speciale alcança métricas de desempenho equiparáveis às do Gemini-3 Pro do Google em avaliações específicas de raciocínio.
Adicionalmente, a companhia reporta que o DeepSeek-V3.2-Speciale obteve desempenho de nível ouro em conjuntos de dados de referência que simulam as edições de 2025 de competições globais de prestígio, incluindo a Olimpíada Internacional de Matemática (IMO) e a Olimpíada Internacional de Informática (IOI).
O acesso ao DeepSeek-V3.2-Speciale, que exige alta capacidade computacional, está limitado a um endpoint de API temporário até 15 de dezembro de 2025, sinalizando uma fase de lançamento controlada, enquanto o modelo padrão V3.2 já está acessível imediatamente por meio de solicitação e interface web. Este ritmo acelerado de desenvolvimento em IA sugere que os frameworks de código aberto estão rapidamente se tornando funcionalmente competitivos com os sistemas proprietários em domínios complexos.



