Nvidia finalizuje umowę z Groq wartą 20 miliardów dolarów, zapowiadając technologię LPU na GTC 2026
Edytowane przez: Aleksandr Lytviak
W grudniu 2025 roku firma Nvidia sfinalizowała strategiczne porozumienie licencyjne z Groq, innowacyjnym startupem specjalizującym się w chipach sztucznej inteligencji, którego wartość szacowana jest na kwotę dochodzącą do 20 miliardów dolarów. Transakcja ta, określana jako niewyłączna licencja na własność intelektualną, stanowi największą umowę w historii Nvidii, znacznie przewyższając wcześniejszy zakup Mellanox za blisko 7 miliardów dolarów w 2019 roku. Porozumienie obejmowało również pozyskanie kluczowych specjalistów, w tym założyciela Groq, Jonathana Rossa, który wcześniej pracował nad rozwojem układów TPU w Google.
Groq koncentruje się na niezwykle szybkim i efektywnym kosztowo wnioskowaniu, czyli zastosowaniu wytrenowanych modeli sztucznej inteligencji w czasie rzeczywistym. Ten segment staje się polem intensywnej rywalizacji, ponieważ korporacje przenoszą znaczące wydatki kapitałowe w stronę obsługi końcowych użytkowników. Rynek akceleratorów do inferencji jest coraz bardziej konkurencyjny, z gigantami technologicznymi, takimi jak Google z TPU oraz Amazon z układami Trainium i Inferentia, rozwijającymi własne, dedykowane procesory. Nvidia, która historycznie dominuje na rynku trenowania modeli AI z udziałem przekraczającym 78% rynku chipów AI, dostrzega potrzebę wzmocnienia swoich możliwości w zakresie wnioskowania.
Architektura Groq opiera się na jednostkach LPU (Language Processing Unit), zaprojektowanych w celu eliminacji wąskich gardeł występujących w tradycyjnych procesorach graficznych (GPU) wykorzystujących pamięć HBM. Zamiast polegać na zewnętrznej pamięci HBM, której dostawy są kontrolowane przez dwóch koreańskich producentów, Groq integruje znaczną ilość ultraszybkiej pamięci SRAM bezpośrednio na chipie. Ta fundamentalna różnica architektoniczna ma potencjał zaoferowania nawet dziesięciokrotnej poprawy efektywności energetycznej w inferencji, ponieważ transfer danych z lokalnej pamięci SRAM kosztuje około 20 razy mniej energii niż sięganie do pamięci HBM poza chipem.
Nvidia planuje zaprezentować nowy produkt wykorzystujący technologię LPU Groq podczas swojej corocznej konferencji deweloperskiej GTC 2026, która rozpocznie się 16 marca 2026 roku w San Jose. Oczekuje się, że ten nowy układ będzie wykorzystywał pamięć SRAM zamiast HBM, co ma przełożyć się na lepszą efektywność kosztową w obsłudze zadań inferencyjnych, zwłaszcza tych związanych z agentami AI wymagającymi niskich opóźnień. Mimo że Groq formalnie pozostaje niezależną jednostką pod nowym dyrektorem generalnym Simonem Edwardsem, a jego usługa chmurowa GroqCloud ma działać bez zakłóceń, przejęcie kluczowych inżynierów, w tym założyciela Rossa, sygnalizuje dążenie Nvidii do integracji tej wiedzy w celu uzupełnienia swojej dotychczasowej słabości w ekosystemie AI.
3 Wyświetlenia
Źródła
Republic World
Seoul Economic Daily
InsiderFinance
Alpha Spread
The Times of India
BNN Bloomberg
Przeczytaj więcej wiadomości na ten temat:
Czy znalazłeś błąd lub niedokładność?Rozważymy Twoje uwagi tak szybko, jak to możliwe.



