Alibaba presenta Qwen3-Max-Preview: un modelo de IA con más de un billón de parámetros

Editado por: Veronika Radoslavskaya

Alibaba ha lanzado Qwen3-Max-Preview, su modelo de inteligencia artificial más avanzado hasta la fecha, superando la marca de un billón de parámetros. Este hito tecnológico posiciona a Alibaba como un competidor importante en la carrera global por la supremacía en IA y subraya su compromiso con la soberanía tecnológica.

El Qwen3-Max-Preview destaca por su extensa ventana de contexto, que puede alcanzar hasta 262.144 tokens, con límites de entrada y salida de 258.048 y 32.768 tokens, respectivamente. Para optimizar su rendimiento, el modelo integra caché de contexto. Las pruebas de referencia indican una capacidad excepcional, logrando la primera posición en Arena-Hardv2 y una puntuación de 80.6 en la prueba de razonamiento matemático AIME25, lo que supone una mejora de 23 puntos respecto a su predecesor.

El modelo está disponible a través de Qwen Chat, la API de Alibaba Cloud y plataformas como OpenRouter y Hugging Face AnyCoder. Los desarrolladores pueden integrarlo utilizando frameworks como SGLang y vLLM, o ejecutarlo localmente con Ollama, LMStudio, MLX, llama.cpp y KTransformers. Este lanzamiento se produce en un momento de intensa competencia en la industria de la IA, donde Alibaba compite con gigantes como OpenAI y Google DeepMind, impulsando una nueva ola de desarrollo e innovación en el campo.

La estrategia de Alibaba de enfocarse en la soberanía tecnológica es particularmente relevante en el contexto actual, donde las naciones buscan asegurar su autonomía en áreas tecnológicas críticas. El impacto de Qwen3-Max-Preview va más allá de las métricas de rendimiento, ofreciendo a empresas e investigadores la oportunidad de explorar nuevas fronteras en la aplicación de la IA, desde la resolución de problemas complejos hasta la creación de experiencias de usuario más ricas e intuitivas.

Fuentes

  • Ad Hoc News

  • VentureBeat

  • Sohu

  • arXiv

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.