DeepSeek Lança Modelos V3.2, Estabelecendo Novos Padrões de Eficiência para IA de Fronteira

Editado por: Veronika Radoslavskaya

A DeepSeek, empresa sediada em Hangzhou, anunciou em 1º de dezembro de 2025 a introdução de dois novos modelos experimentais de inteligência artificial: o DeepSeek-V3.2 e o DeepSeek-V3.2-Speciale. Este lançamento posiciona a desenvolvedora de código aberto em concorrência direta com os modelos proprietários de ponta, estabelecendo novos marcos de eficiência e alcançando paridade competitiva em domínios específicos. A DeepSeek sustenta que a fusão de capacidades avançadas de raciocínio com a execução autônoma de tarefas representa um avanço arquitetônico significativo para sua plataforma, demonstrando que os sistemas de código aberto mantêm-se vigorosamente competitivos frente aos principais modelos de código fechado oriundos do Vale do Silício.

O cerne da inovação tecnológica que impulsiona essa eficiência reside no mecanismo denominado DeepSeek Sparse Attention (DSA). Esta novidade arquitetônica tem o poder de mitigar a complexidade computacional que historicamente acompanha o processamento de contextos extensos. Como resultado, o modelo consegue manter velocidades de inferência rápidas ao mesmo tempo em que reduz substancialmente os custos computacionais inerentes. A versão principal, o DeepSeek-V3.2, utiliza essa arquitetura DSA e aprimora a funcionalidade de uso de ferramentas, introduzida na versão V3.1.

Este novo modelo suporta a integração de ferramentas externas, tais como executores de código, calculadoras e mecanismos de busca, oferecendo flexibilidade operacional através de modos de operação tanto com 'pensamento' quanto sem ele. O desempenho do modelo tem sido notável em desafios práticos de codificação, como o SWE-bench Verified, e tem recebido avaliações elevadas pela comunidade em ambientes competitivos, solidificando sua posição no patamar de alto desempenho para cargas de trabalho gerais e equilibradas.

A variante especializada, batizada de DeepSeek-V3.2-Speciale, foi meticulosamente projetada para atingir o desempenho máximo em cálculos matemáticos complexos e em desafios de raciocínio que exigem múltiplas etapas sequenciais. A DeepSeek afirma que esta versão Speciale alcança métricas de desempenho equiparáveis às do Gemini-3 Pro do Google em avaliações específicas de raciocínio.

Adicionalmente, a companhia reporta que o DeepSeek-V3.2-Speciale obteve desempenho de nível ouro em conjuntos de dados de referência que simulam as edições de 2025 de competições globais de prestígio, incluindo a Olimpíada Internacional de Matemática (IMO) e a Olimpíada Internacional de Informática (IOI).

O acesso ao DeepSeek-V3.2-Speciale, que exige alta capacidade computacional, está limitado a um endpoint de API temporário até 15 de dezembro de 2025, sinalizando uma fase de lançamento controlada, enquanto o modelo padrão V3.2 já está acessível imediatamente por meio de solicitação e interface web. Este ritmo acelerado de desenvolvimento em IA sugere que os frameworks de código aberto estão rapidamente se tornando funcionalmente competitivos com os sistemas proprietários em domínios complexos.

Fontes

  • Gestión

  • DeepSeek - Wikipedia

  • DeepSeek-V3.2 Release

  • 2025 Major Release: How Does DeepSeekMath-V2 Achieve Self-Verifying Mathematical Reasoning? Complete Technical Analysis - DEV Community

  • DeepSeek launches two new AI models to take on Gemini and ChatGPT | Mint

  • DeepSeek releases AI model 'DeepSeek-Math-V2' specialized for mathematical reasoning, achieving a gold medal-level accuracy rate at the International Mathematical Olympiad - GIGAZINE

Encontrou um erro ou imprecisão?

Vamos considerar seus comentários assim que possível.