Nvidia Integra Tecnología LPU de Groq en Acuerdo Estratégico de 20.000 Millones de Dólares

Editado por: Aleksandr Lytviak

Nvidia Corporation formalizó en diciembre de 2025 un acuerdo estratégico de licencia y adquisición de talento con la startup de chips de inteligencia artificial Groq, valorado en un estimado de 20.000 millones de dólares. El pacto, cerrado a finales de ese año, incluyó la transferencia de personal clave, como su fundador, Jonathan Ross, quien fue arquitecto del Tensor Processing Unit (TPU) de Google. La estructura se diseñó como una "adqui-contratación" para integrar la propiedad intelectual de Groq y sortear posibles obstáculos regulatorios asociados a fusiones directas en el sector de semiconductores.

Groq se ha destacado por su especialización en la inferencia de IA, el proceso de aplicar modelos entrenados en tiempo real, ofreciendo una solución que promete mayor rapidez y eficiencia de costes frente a las arquitecturas dominantes. Este enfoque estratégico de Nvidia responde al cambio en el gasto de capital de las grandes corporaciones, que ahora priorizan la prestación de servicios a usuarios finales, un área donde la latencia es un factor crítico. La compañía con sede en Mountain View, California, ha centrado su desarrollo en la Language Processing Unit (LPU), un chip diseñado específicamente para este propósito, a diferencia de las Unidades de Procesamiento Gráfico (GPU) optimizadas para el entrenamiento.

La tecnología LPU de Groq se diferencia de las GPU por su arquitectura determinista y su dependencia de la memoria SRAM integrada en el chip, en lugar de la Memoria de Alto Ancho de Banda (HBM) externa. Esta decisión arquitectónica permite a Groq lograr ahorros energéticos de hasta diez veces en comparación con las GPU, ya que el movimiento de datos entre chips, una fuente principal de consumo energético, se minimiza drásticamente. La transferencia de datos desde SRAM local requiere solo 0.3 picojulios por bit, en contraste con los aproximadamente seis picojulios por bit que implica la recuperación desde HBM externa.

Como parte de esta consolidación de capacidad, se anticipa que Nvidia presente un producto que incorpore la tecnología LPU en su Conferencia de Desarrolladores de GPU (GTC) de 2026, programada para iniciar el 16 de marzo en San José, California. Se proyecta que este nuevo silicio aproveche la memoria SRAM para optimizar la eficiencia de costes en la inferencia, lo que podría traducirse en una mejora de rendimiento de hasta diez veces en comparación con soluciones previas. Este movimiento busca neutralizar la amenaza competitiva que Groq representaba en el segmento de inferencia de baja latencia, donde competidores como Google y Amazon invierten en chips personalizados.

El legado de Jonathan Ross en la aceleración de IA es significativo; antes de fundar Groq en 2016, lideró el equipo que desarrolló el TPU de Google, un componente que llegó a sustentar más del 50% de la infraestructura de cómputo de Google. La integración de Ross y cerca del 80% de la plantilla de ingeniería de Groq en una nueva división de Inferencias en Tiempo Real de Nvidia subraya el valor estratégico del conocimiento especializado adquirido. La entidad restante de Groq continuará operando como GroqCloud bajo un nuevo liderazgo, cumpliendo con sus compromisos existentes, incluido un proyecto de centro de datos en Arabia Saudita valorado en 1.500 millones de dólares.

3 Vues

Fuentes

  • Republic World

  • Seoul Economic Daily

  • InsiderFinance

  • Alpha Spread

  • The Times of India

  • BNN Bloomberg

¿Encontró un error o inexactitud?Consideraremos sus comentarios lo antes posible.