NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s
NVIDIA GH200 to rozwiązanie przeznaczone przede wszystkim do budowy superkomputerów. Wśród potencjalnych zastosowań jest generatywna sztuczna inteligencja, której algorytmy będą w stanie wykorzystać w pełni potencjał superchipów Grace Hopper. Podczas konferencji SIGGRAPH NVIDIA zapowiedziała nową wersję układów. Główna różnica sprowadza się do zastosowania pamięci HBM3e, która jest obecnie uważana za najszybszą na świecie.
NVIDIA zaprezentowała nową wersję układów GH200. Zastosowano w nich najnowszą pamięć HBM3e, co jest odpowiedzią na zapotrzebowanie ze strony sektora generatywnej sztucznej inteligencji.
NVIDIA DGX GH200 - zapowiedziano platformę komputerową w pełni korzystającą z zalet superchipów Grace Hopper
Jak twierdzi NVIDIA, podwójna konfiguracja Grace Hopper zapewnia 3,5-krotnie większą pojemność pamięci i 3-krotnie większą przepustowość niż rozwiązania z obecnej generacji. Całość oferuje 8 PFLOPS mocy obliczeniowej w zadaniach bazujących na sztucznej inteligencji. Zastosowanie pamięci HBM3e, która jest o 50% szybsza niż wykorzystywane do tej pory HBM3, przekłada się na przepustowość rzędu 5 TB/s na pojedynczy chip i 10 TB/s na układ. NVIDIA GH200 zaoferuje 282 GB nowej pamięci. Rozwiązanie to będzie odtąd wykorzystywane w rozmaitych systemach bazujących na propozycji firmy z Santa Clara.
NVIDIA A100 i NVIDIA H100 - Chińczycy są gotowi płacić gigantyczne pieniądze za układy graficzne na czarnym rynku
Warto odnotować, że superchipy Grace Hopper mogą zostać połączone z innymi superchipami za pośrednictwem NVLink. To zapewnia niespotykaną wydajność całego systemu w określonych zastosowaniach. Będzie to jedna z najlepszych opcji dla podmiotów, które potrzebują dużej mocy obliczeniowej do obsługi algorytmów sztucznej inteligencji. Pierwsze systemy bazujące na nowej wersji NVIDIA GH200 powinny pojawić się w drugim kwartale 2024 roku. Przypomnijmy, że z pamięci HBM3e będą korzystały także akceleratory AMD Instinct MI300X. Jednostki AMD również zaoferują przepustowość rzędu 5 TB/s na chip, choć jest to rozwiązanie innego typu, bazuje bowiem na chipletach.
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4