Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

NVIDIA H100 - akcelerator graficzny oparty na architekturze Hopper może wkrótce dostać wersję ze 120 GB pamięci

Damian Marusiak | 26-09-2022 14:00 |

NVIDIA H100 - akcelerator graficzny oparty na architekturze Hopper może wkrótce dostać wersję ze 120 GB pamięciKilka miesięcy temu NVIDIA ujawniła architekturę Hopper, przygotowaną z myślą o obliczeniach HPC/AI. Jej przedstawicielem jest akcelerator graficzny NVIDIA H100, oparty na układzie GH100 i korzystający z 80 GB pamięci HBM2e (wersja PCIe) lub HBM3 (obudowa SXM5). Dopiero przed tygodniem, w ramach kolejnej prezentacji GTC 2022, NVIDIA potwierdziła dostępność układu H100. Tymczasem wkrótce może pojawić się kolejna wersja akceleratora, wyposażona w jeszcze większą ilość pamięci.

Akcelerator graficzny NVIDIA H100 może wkrótce doczekać się wersji ze 120 GB pamięci HBM2e. Mowa o wersji zgodnej z PCIe.

NVIDIA H100 - akcelerator graficzny oparty na architekturze Hopper może wkrótce dostać wersję ze 120 GB pamięci [1]

Premiera akceleratora NVIDIA H100 Hopper - Litografia TSMC 4 nm, 80 GB pamięci HBM3 i TDP do 700 W

Na stronie S-ss pojawiła się informacja (wraz ze screenem z Menadżera urządzeń w systemie Windows) na temat nowej wersji akceleratora NVIDIA H100. Główną różnicą względem dotychczasowej wersji H100 jest ilość pamięci własnej. Zapowiedziany kilka miesięcy temu wariant PCIe posiada 80 GB pamięci typu HBM2e. Nowy wariant ma z kolei posiadać aż 120 GB własnej pamięci, również HBM2e. Pomimo użycia tej samej magistrali (5120-bit), przepustowość układu graficznego wzrosła do 3 TB/s, czyli tyle samo co H100 z 80 GB pamięci HBM3. Przypominamy, że wcześniej zaprezentowany wariant H100 PCIe oferuje przepustowość 2 TB/s.

  NVIDIA H100 SXM5 NVIDIA H100 PCIe 80 GB NVIDIA H100 PCIe 120 GB
Architektura Hopper Hopper Hopper
Układ graficzny GH100 GH100 GH100
Litografia TSMC "4N" TSMC "4N" TSMC "4N"
Powierzchnia 814 mm² 814 mm² 814 mm²
Liczba tranzystorów 80 mld 80 mld 80 mld
Jednostki SP 16896 CUDA 14592 CUDA 16896 CUDA
Jednostki TMU 528 456 528
Jednostki Tensor 528 Tensor 4. generacji 456 Tensor 4. generacji 528 Tensor 4. generacji
Cache L2 50 MB 50 MB 50 MB
Ilość pamięci 80 GB HBM3 80 GB HBM2e 120 GB HBM2e
Szyna pamięci 5120-bit 5120-bit 5120-bit
Przepustowość VRAM 3 TB/s 2 TB/s 3 TB/s
Interfejs SXM5 PCIe PCIe
Współczynnik TDP 700 W ? 350 W

NVIDIA H100 80 GB PCIe w cenie kawalerki. Można już składać zamówienia na nowy układ oparty na architekturze Hopper

Według źródła specyfikacja układu GH100 pozostała w tej wersji taka sama jak w przypadku modelu NVIDIA H100 w obudowie SXM5. Mowa zatem o mocniejszej wersji, bowiem H100 z 80 GB pamięci HBM2e ma również bardziej obciętą wersję układu GH100, w celu redukcji poboru energii. O ile wcześniej zaprezentowany model ma na pokładzie 14592 rdzenie CUDA, tak nadchodzący wariant ze 120 GB pamięci ma aktywnych 16896 rdzeni CUDA. Ma to przełożyć się także na wyższą wydajność, porównywalną z układem H100 w wersji SXM5.

NVIDIA H100 - akcelerator graficzny oparty na architekturze Hopper może wkrótce dostać wersję ze 120 GB pamięci [2]

Źródło: VideoCardz, S-ss
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 8

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.