NVIDIA H100 - akcelerator graficzny oparty na architekturze Hopper może wkrótce dostać wersję ze 120 GB pamięci
Kilka miesięcy temu NVIDIA ujawniła architekturę Hopper, przygotowaną z myślą o obliczeniach HPC/AI. Jej przedstawicielem jest akcelerator graficzny NVIDIA H100, oparty na układzie GH100 i korzystający z 80 GB pamięci HBM2e (wersja PCIe) lub HBM3 (obudowa SXM5). Dopiero przed tygodniem, w ramach kolejnej prezentacji GTC 2022, NVIDIA potwierdziła dostępność układu H100. Tymczasem wkrótce może pojawić się kolejna wersja akceleratora, wyposażona w jeszcze większą ilość pamięci.
Akcelerator graficzny NVIDIA H100 może wkrótce doczekać się wersji ze 120 GB pamięci HBM2e. Mowa o wersji zgodnej z PCIe.
Premiera akceleratora NVIDIA H100 Hopper - Litografia TSMC 4 nm, 80 GB pamięci HBM3 i TDP do 700 W
Na stronie S-ss pojawiła się informacja (wraz ze screenem z Menadżera urządzeń w systemie Windows) na temat nowej wersji akceleratora NVIDIA H100. Główną różnicą względem dotychczasowej wersji H100 jest ilość pamięci własnej. Zapowiedziany kilka miesięcy temu wariant PCIe posiada 80 GB pamięci typu HBM2e. Nowy wariant ma z kolei posiadać aż 120 GB własnej pamięci, również HBM2e. Pomimo użycia tej samej magistrali (5120-bit), przepustowość układu graficznego wzrosła do 3 TB/s, czyli tyle samo co H100 z 80 GB pamięci HBM3. Przypominamy, że wcześniej zaprezentowany wariant H100 PCIe oferuje przepustowość 2 TB/s.
NVIDIA H100 SXM5 | NVIDIA H100 PCIe 80 GB | NVIDIA H100 PCIe 120 GB | |
Architektura | Hopper | Hopper | Hopper |
Układ graficzny | GH100 | GH100 | GH100 |
Litografia | TSMC "4N" | TSMC "4N" | TSMC "4N" |
Powierzchnia | 814 mm² | 814 mm² | 814 mm² |
Liczba tranzystorów | 80 mld | 80 mld | 80 mld |
Jednostki SP | 16896 CUDA | 14592 CUDA | 16896 CUDA |
Jednostki TMU | 528 | 456 | 528 |
Jednostki Tensor | 528 Tensor 4. generacji | 456 Tensor 4. generacji | 528 Tensor 4. generacji |
Cache L2 | 50 MB | 50 MB | 50 MB |
Ilość pamięci | 80 GB HBM3 | 80 GB HBM2e | 120 GB HBM2e |
Szyna pamięci | 5120-bit | 5120-bit | 5120-bit |
Przepustowość VRAM | 3 TB/s | 2 TB/s | 3 TB/s |
Interfejs | SXM5 | PCIe | PCIe |
Współczynnik TDP | 700 W | ? | 350 W |
NVIDIA H100 80 GB PCIe w cenie kawalerki. Można już składać zamówienia na nowy układ oparty na architekturze Hopper
Według źródła specyfikacja układu GH100 pozostała w tej wersji taka sama jak w przypadku modelu NVIDIA H100 w obudowie SXM5. Mowa zatem o mocniejszej wersji, bowiem H100 z 80 GB pamięci HBM2e ma również bardziej obciętą wersję układu GH100, w celu redukcji poboru energii. O ile wcześniej zaprezentowany model ma na pokładzie 14592 rdzenie CUDA, tak nadchodzący wariant ze 120 GB pamięci ma aktywnych 16896 rdzeni CUDA. Ma to przełożyć się także na wyższą wydajność, porównywalną z układem H100 w wersji SXM5.
Powiązane publikacje

ASUS ROG Astral GeForce RTX 5080 DOOM Edition to limitowana karta graficzna dla fanów gry DOOM: The Dark Ages
36
NVIDIA GeForce RTX 5070 Ti - Podkręcono pamięć karty graficznej. Kości GDDR7 od SK hynix osiągnęły 34 Gb/s
185
ASUS GeForce RTX 5000 ROG Astral - karty graficzne Blackwell, które posiadają akcelerometr i żyroskop
90
AMD Radeon RX 9070 GRE został oficjalnie zaprezentowany w Chinach - Potwierdzono specyfikację i cenę karty RDNA 4
56