Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s

Łukasz Stefaniak | 09-08-2023 13:00 |

NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/sNVIDIA GH200 to rozwiązanie przeznaczone przede wszystkim do budowy superkomputerów. Wśród potencjalnych zastosowań jest generatywna sztuczna inteligencja, której algorytmy będą w stanie wykorzystać w pełni potencjał superchipów Grace Hopper. Podczas konferencji SIGGRAPH NVIDIA zapowiedziała nową wersję układów. Główna różnica sprowadza się do zastosowania pamięci HBM3e, która jest obecnie uważana za najszybszą na świecie.

NVIDIA zaprezentowała nową wersję układów GH200. Zastosowano w nich najnowszą pamięć HBM3e, co jest odpowiedzią na zapotrzebowanie ze strony sektora generatywnej sztucznej inteligencji.

NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s [1]

NVIDIA DGX GH200 - zapowiedziano platformę komputerową w pełni korzystającą z zalet superchipów Grace Hopper

Jak twierdzi NVIDIA, podwójna konfiguracja Grace Hopper zapewnia 3,5-krotnie większą pojemność pamięci i 3-krotnie większą przepustowość niż rozwiązania z obecnej generacji. Całość oferuje 8 PFLOPS mocy obliczeniowej w zadaniach bazujących na sztucznej inteligencji. Zastosowanie pamięci HBM3e, która jest o 50% szybsza niż wykorzystywane do tej pory HBM3, przekłada się na przepustowość rzędu 5 TB/s na pojedynczy chip i 10 TB/s na układ. NVIDIA GH200 zaoferuje 282 GB nowej pamięci. Rozwiązanie to będzie odtąd wykorzystywane w rozmaitych systemach bazujących na propozycji firmy z Santa Clara.

NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s [2]

NVIDIA A100 i NVIDIA H100 - Chińczycy są gotowi płacić gigantyczne pieniądze za układy graficzne na czarnym rynku

Warto odnotować, że superchipy Grace Hopper mogą zostać połączone z innymi superchipami za pośrednictwem NVLink. To zapewnia niespotykaną wydajność całego systemu w określonych zastosowaniach. Będzie to jedna z najlepszych opcji dla podmiotów, które potrzebują dużej mocy obliczeniowej do obsługi algorytmów sztucznej inteligencji. Pierwsze systemy bazujące na nowej wersji NVIDIA GH200 powinny pojawić się w drugim kwartale 2024 roku. Przypomnijmy, że z pamięci HBM3e będą korzystały także akceleratory AMD Instinct MI300X. Jednostki AMD również zaoferują przepustowość rzędu 5 TB/s na chip, choć jest to rozwiązanie innego typu, bazuje bowiem na chipletach.

NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s [3]

Źródło: NVIDIA, WCCFTech
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 6

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.