DeepSeek Lanza Modelos V3.2, Estableciendo Nuevos Estándares de Eficiencia para la IA Fronteriza

Editado por: Veronika Radoslavskaya

La empresa de inteligencia artificial con sede en Hangzhou, DeepSeek, ha anunciado el lanzamiento de dos nuevos modelos experimentales de IA el 1 de diciembre de 2025: el DeepSeek-V3.2 y el DeepSeek-V3.2-Speciale. Con esta introducción, el desarrollador de código abierto se posiciona en una competencia directa con los modelos propietarios más avanzados, al fijar nuevos parámetros de eficiencia y alcanzar una paridad competitiva en dominios específicos. DeepSeek sostiene que la integración de capacidades avanzadas de razonamiento con la ejecución autónoma de tareas constituye un avance arquitectónico significativo para su plataforma, demostrando que los sistemas de código abierto mantienen una fuerte competitividad frente a los modelos cerrados líderes provenientes de Silicon Valley.

El avance tecnológico fundamental que impulsa esta notable eficiencia es el mecanismo denominado DeepSeek Sparse Attention (DSA). Esta innovación arquitectónica logra reducir la complejidad computacional que habitualmente se asocia al procesamiento de contextos extensos. Como resultado, el modelo puede mantener velocidades de inferencia rápidas mientras disminuye considerablemente los costes computacionales. La iteración principal, el DeepSeek-V3.2, implementa esta arquitectura DSA y se basa en la funcionalidad de uso de herramientas que se introdujo en la versión V3.1.

Esta nueva versión V3.2 ofrece soporte para la utilización de herramientas externas. Esto incluye ejecutores de código, calculadoras y motores de búsqueda, proporcionando una gran flexibilidad operativa a través de dos modalidades: con 'pensamiento' o sin él ('no-thought'). El modelo exhibe un rendimiento sólido en desafíos de codificación del mundo real, como los evaluados en SWE-bench Verified. Además, goza de una alta valoración por parte de la comunidad en entornos competitivos, lo que lo sitúa firmemente en el escalón de alto rendimiento para cargas de trabajo generales y equilibradas. Es un claro ejemplo de cómo el ecosistema abierto está cerrando la brecha.

Por otro lado, la variante especializada, denominada DeepSeek-V3.2-Speciale, ha sido diseñada meticulosamente para alcanzar el máximo rendimiento en cálculos matemáticos complejos y en desafíos de razonamiento de múltiples pasos y gran extensión. DeepSeek asegura que esta versión Speciale iguala métricas de rendimiento a las logradas por Gemini-3 Pro de Google en evaluaciones específicas de razonamiento. Es como si hubieran afinado un motor de carreras para una pista muy concreta.

Adicionalmente, la compañía informa que el DeepSeek-V3.2-Speciale consiguió un rendimiento a nivel oro en conjuntos de datos de referencia que simulan las ediciones de 2025 de competiciones globales de prestigio. Entre estas se encuentran la Olimpiada Matemática Internacional (IMO) y la Olimpiada Internacional de Informática (IOI). El acceso a la versión de alta computación, el DeepSeek-V3.2-Speciale, está actualmente restringido a un punto final de API temporal hasta el 15 de diciembre de 2025, lo que sugiere una fase de implementación controlada. Mientras tanto, el modelo estándar V3.2 ya está disponible inmediatamente mediante solicitud y a través de la interfaz web. Este ritmo acelerado en el desarrollo de la IA subraya que los marcos de código abierto están evolucionando rápidamente para volverse funcionalmente competitivos con los sistemas propietarios en áreas de alta complejidad.

Fuentes

  • Gestión

  • DeepSeek - Wikipedia

  • DeepSeek-V3.2 Release

  • 2025 Major Release: How Does DeepSeekMath-V2 Achieve Self-Verifying Mathematical Reasoning? Complete Technical Analysis - DEV Community

  • DeepSeek launches two new AI models to take on Gemini and ChatGPT | Mint

  • DeepSeek releases AI model 'DeepSeek-Math-V2' specialized for mathematical reasoning, achieving a gold medal-level accuracy rate at the International Mathematical Olympiad - GIGAZINE

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.