Google Cloud włączyło do swojej infrastruktury serwery z układami graficznymi Blackwell i procesorami Grace
Choć wdrażanie akceleratorów Blackwell (w tym superchipów GB200) nie przebiega może tak gładko, jak chciałaby NVIDIA i jej klienci, to wydaje się kwestią czasu, kiedy znacząca część infrastruktury serwerowej dużych firm będzie na nich bazowała. Kolejny krok w tym kierunku uczyniło Google Cloud, które poinformowało o wdrożeniu serwerów NVL72 wykorzystujących najnowsze superchipy. Będą one dostępne dla klientów w ramach maszyn wirtualnych.
Google Cloud poinformowało o włączeniu do swojej infrastruktury serwerów NVL72 z superchipami NVIDIA GB200. Ich moc obliczeniowa jest już dostępna dla klientów w ramach maszyn wirtualnych A4X.
NVIDIA GB200 NVL4 - zapowiedziano kolejny wariant superchipów służących do obsługi sztucznej inteligencji
W listopadzie zeszłego roku informowaliśmy o problemach z przegrzewaniem się serwerów NVL72 z superchipami NVIDIA GB200. Wymusiło to dokonanie zmian w projekcie racków i doprowadziło do czasowego spadku zamówień na tego typu rozwiązanie. Problem został przynajmniej częściowo rozwiązany i duże firmy technologiczne coraz sprawniej włączają serwery NVL72 do swojej infrastruktury chmurowej. O takim kroku poinformowała firma Google. Chodzi tutaj o maszyny wirtualne A4X, u podstaw których znajdują się właśnie superchipy GB200. Jeden rack NVL72 składa się z 36 takich superchipów, co w praktyce oznacza 72 akceleratory B200 i 36 procesorów Grace. Poszczególne jednostki sprzętu są ze sobą połączone za pośrednictwem piątej generacji NVIDIA NVLink.
NVIDIA B200 Tensor Core - akcelerator graficzny oparty na architekturze Blackwell. Na pokładzie m.in. 192 GB pamięci HBM3e
Serwery NVL72, które Google Cloud wdrożyło, pozwalają traktować wszystkie 72 akceleratory Blackwell jako pojedynczą jednostkę obliczeniową, która ma wspólną pamięć i bardzo wysoką przepustowość danych. To zaś skutecznie zmniejsza opóźnienia w komunikacji z dużymi modelami językowymi, które są podstawą sztucznej inteligencji. Wydajność pojedynczego serwera NVL72 przy obsłudze zadań AI wynosi ponad 1 EFLOPS, co sprawa, że maszyny wirtualne A4X oferują nawet cztery razy wyższą wydajność niż maszyny A3, które bazują na akceleratorach NVIDIA H100. Serwery wykorzystują chłodzenie cieczą, co ma zapobiegać przypadkom throttlingu podczas dużego obciążenia. W ofercie Google Cloud znajdują się także maszyny wirtualne A4, które bazują nie na superchipach GB200, a na samych akceleratorach B200. Te są skierowane do nieco mniej wymagających klientów, którzy nie potrzebują najwyższej możliwej obecnie wydajności.
Powiązane publikacje

TSMC zapowiada CoPoS i PLP. Znacząca ewolucja, która pozwoli uzyskać więcej miejsca dla chipów
21
PCI-SIG finalizuje specyfikację PCI Express 7.0. Interfejs przygotowany jest na potrzeby systemów AI i cloud computing
40
Naukowcy zbudowali robota, który gra w badmintona lepiej niż większość ludzi. Zobacz, co potrafi ANYmal‑D od ETH Zurich
37
Meta wydaje miliardy. Laboratorium SI, inwestycja w Scale AI i dążenie do wyjścia poza ograniczenia LLaMA
15