Google Cloud włączyło do swojej infrastruktury serwery z układami graficznymi Blackwell i procesorami Grace
Choć wdrażanie akceleratorów Blackwell (w tym superchipów GB200) nie przebiega może tak gładko, jak chciałaby NVIDIA i jej klienci, to wydaje się kwestią czasu, kiedy znacząca część infrastruktury serwerowej dużych firm będzie na nich bazowała. Kolejny krok w tym kierunku uczyniło Google Cloud, które poinformowało o wdrożeniu serwerów NVL72 wykorzystujących najnowsze superchipy. Będą one dostępne dla klientów w ramach maszyn wirtualnych.
Google Cloud poinformowało o włączeniu do swojej infrastruktury serwerów NVL72 z superchipami NVIDIA GB200. Ich moc obliczeniowa jest już dostępna dla klientów w ramach maszyn wirtualnych A4X.
NVIDIA GB200 NVL4 - zapowiedziano kolejny wariant superchipów służących do obsługi sztucznej inteligencji
W listopadzie zeszłego roku informowaliśmy o problemach z przegrzewaniem się serwerów NVL72 z superchipami NVIDIA GB200. Wymusiło to dokonanie zmian w projekcie racków i doprowadziło do czasowego spadku zamówień na tego typu rozwiązanie. Problem został przynajmniej częściowo rozwiązany i duże firmy technologiczne coraz sprawniej włączają serwery NVL72 do swojej infrastruktury chmurowej. O takim kroku poinformowała firma Google. Chodzi tutaj o maszyny wirtualne A4X, u podstaw których znajdują się właśnie superchipy GB200. Jeden rack NVL72 składa się z 36 takich superchipów, co w praktyce oznacza 72 akceleratory B200 i 36 procesorów Grace. Poszczególne jednostki sprzętu są ze sobą połączone za pośrednictwem piątej generacji NVIDIA NVLink.
NVIDIA B200 Tensor Core - akcelerator graficzny oparty na architekturze Blackwell. Na pokładzie m.in. 192 GB pamięci HBM3e
Serwery NVL72, które Google Cloud wdrożyło, pozwalają traktować wszystkie 72 akceleratory Blackwell jako pojedynczą jednostkę obliczeniową, która ma wspólną pamięć i bardzo wysoką przepustowość danych. To zaś skutecznie zmniejsza opóźnienia w komunikacji z dużymi modelami językowymi, które są podstawą sztucznej inteligencji. Wydajność pojedynczego serwera NVL72 przy obsłudze zadań AI wynosi ponad 1 EFLOPS, co sprawa, że maszyny wirtualne A4X oferują nawet cztery razy wyższą wydajność niż maszyny A3, które bazują na akceleratorach NVIDIA H100. Serwery wykorzystują chłodzenie cieczą, co ma zapobiegać przypadkom throttlingu podczas dużego obciążenia. W ofercie Google Cloud znajdują się także maszyny wirtualne A4, które bazują nie na superchipach GB200, a na samych akceleratorach B200. Te są skierowane do nieco mniej wymagających klientów, którzy nie potrzebują najwyższej możliwej obecnie wydajności.
Powiązane publikacje

Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4
Google uczy sztuczną inteligencję języka delfinów. Ambitny projekt może odmienić sposób, w jaki komunikujemy się ze zwierzętami
14
Naukowcy opracowali elastyczny akumulator Li-ion. Czy to nowa era zasilania dla urządzeń noszonych i elektroniki przyszłości?
15
Pat Gelsinger stawia na akceleratory cząstek i dołącza do xLight. Czy tak będzie wyglądać przyszłość litografii?
7