Nvidia Formaliza Acordo com Groq de US$ 20 Bilhões e Anuncia Tecnologia LPU na GTC 2026
Editado por: Aleksandr Lytviak
A Nvidia Corporation formalizou em dezembro de 2025 um acordo de licenciamento estratégico com a startup de chips de Inteligência Artificial Groq, com valor potencial de até US$ 20 bilhões, configurando-se como a maior transação da história da Nvidia até o momento. O acordo corporativo abrangeu não apenas a propriedade intelectual, mas também a aquisição de talentos-chave, por meio de um processo de acqui-hire, que incluiu executivos seniores da Groq, entre eles o fundador Jonathan Ross.
A Groq, estabelecida em 2016 por engenheiros provenientes do Google, incluindo Jonathan Ross, um dos arquitetos originais da Unidade de Processamento de Tensor (TPU) do Google, concentra sua especialização na inferência de IA, que consiste na aplicação em tempo real de modelos já treinados. Esta especialização ocorre em um momento em que grandes corporações estão reajustando despesas de capital para otimizar a entrega de serviços aos usuários finais, intensificando a competição no mercado de inferência contra gigantes como Google e Amazon, que desenvolvem seus próprios ASICs personalizados.
A arquitetura da Groq é centrada na Unidade de Processamento de Linguagem (LPU), que se distingue fundamentalmente das GPUs convencionais por empregar memória SRAM (Static Random Access Memory) em vez da Memória de Alta Largura de Banda (HBM). Essa escolha arquitetônica visa mitigar os gargalos de largura de banda, prometendo uma eficiência de custo potencialmente dez vezes superior em tarefas de inferência sequencial, como a geração de texto em modelos de linguagem grandes (LLMs).
A expectativa do setor é que a Nvidia apresente um novo produto de processamento, denominado LPX, que integrará a tecnologia LPU licenciada da Groq, durante sua conferência de desenvolvedores GTC 2026, que terá início em San Jose, Califórnia, em 16 de março de 2026. A plataforma GTC, evento central para computação de GPU e IA, focará em 2026 em tópicos como IA Agêntica e a expansão da inferência. A utilização de SRAM on-chip no design LPU, em contraste com a HBM externa das GPUs da Nvidia, como as arquiteturas Blackwell e Rubin, permite que a nova oferta evite a pressão na cadeia de suprimentos de HBM.
O acordo de dezembro de 2025, estruturado como uma licença perpétua não exclusiva para o portfólio de patentes e software stack da Groq, resultou na transferência de aproximadamente 80% a 90% da força de trabalho da Groq para a Nvidia. Apesar da transação, a Groq afirmou que manterá sua operação como entidade independente, sob nova liderança, preservando seu serviço GroqCloud. Analistas preveem que a demanda por unidades LPU possa alcançar entre 4 a 5 milhões de unidades em 2026 e 2027, impulsionada pela necessidade de aplicações de IA de latência ultrabaixa, como agentes de codificação e serviços em tempo real.
3 Visualizações
Fontes
Republic World
Seoul Economic Daily
InsiderFinance
Alpha Spread
The Times of India
BNN Bloomberg
Leia mais notícias sobre este tema:
Encontrou um erro ou imprecisão?Vamos considerar seus comentários assim que possível.



