Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

NVIDIA Hopper GH100 - opracowanie naukowe firmy daje pierwszy wgląd w specyfikację akceleratora graficznego nowej generacji

Damian Marusiak | 14-12-2021 14:00 |

NVIDIA Hopper GH100 - opracowanie naukowe firmy daje pierwszy wgląd w specyfikację akceleratora graficznego nowej generacjiW przyszłym roku NVIDIA planuje wydać dwie nowe architektury kart graficznych. Pierwszą jest Hooper, który wykorzystany zostanie w akceleratorach graficznych nowej generacji dla rynku HPC oraz AI. Drugą architekturą będzie Ada Lovelace dla konsumenckich kart graficznych GeForce RTX 4000. Choć obecnie NVIDIA nie zdradza jeszcze zbyt wiele informacji o przyszłorocznych nowościach, producent opracował jednocześnie artykuł naukowy na łamach platformy ACM Digital Library, który traktuje na temat nowej generacji akceleratora oraz wyzwań stojących za budową różnych wariantów GPU, które mogłyby zostać wykorzystane do ściśle wyspecjalizowanych zadań. W dokumentacji znajduje się porównanie specyfikacji układu NVIDIA V100 (architektura Volta), NVIDIA A100 (Ampere) oraz nowego układu o oznaczeniu "GPU-N", który najprawdopodobniej będzie akceleratorem nowej generacji.

NVIDIA opracowała nowy artykuł naukowy, traktujący na temat akceleratorów graficznych do obliczeń HPC oraz AI. W dokumencie znajduje się także przybliżona specyfikacja nadchodzącego akceleratora graficznego, który według dotychczasowych informacji wykorzysta architekturę Hopper.

NVIDIA Hopper GH100 - opracowanie naukowe firmy daje pierwszy wgląd w specyfikację akceleratora graficznego nowej generacji [1]

NVIDIA Ada Lovelace oraz Hopper - dwie nowe architektury kart graficznych z debiutem w 2022 roku, obie w 5 nm litografii TSMC

W dokumentacji NVIDII porównano specyfikację oraz teoretyczną wydajność dotychczasowych akceleratorów V100 oraz A100 z nowym układem, wstępnie nazwanym jako "GPU-N". Jako że nadchodząca generacja dla HPC/AI ma zostać określona jako Hopper, spodziewamy się że omawiana specyfikacja dotyczy właśnie tej architektury. Producent podkreśla jednak, że mowa o przewidywanych parametrach, co oznacza że finalny produkt może się nieco różnić od obecnych prognoz firmy. Nowy akcelerator miałby wykorzystać budowę MCM, gdzie pojedyncza matryca obliczeniowa byłaby zbudowana ze 134 bloków SM oraz 8576 rdzeni CUDA (jeśli NVIDIA oczywiście pozostawi dotychczasową budowę, gdzie na 1 blok SM przypadają 64 rdzenie CUDA w akceleratorach graficznych). Układ miałby także posiadać 60 MB pamięci cache L2 oraz 100 GB pamięci VRAM (HBM2e lub HBM3) o imponującej przepustowości 2687 GB/s.

Specyfikacja NVIDIA V100 NVIDIA A100 NVIDIA GPU-N (przewidywalna specyfikacja)
Architektura Volta Ampere Hopper (przypuszczalnie)
Proces technologiczny TSMC 12 nm TSMC 7 nm TSMC 5 nm
Budowa Monolityczna Monolityczna MCM (według dotychczasowych informacji)
Liczba bloków SM 80 108 134 (dla 1 rdzenia graficznego)
268 (dla 2 rdzeni graficznych)
Liczba rdzeni CUDA 5120 6912 8576 (dla 1 rdzenia graficznego)
17152 (dla 2 rdzeni graficznych)
Taktowanie rdzenia 1530 MHz 1410 MHz ~1400 MHz
Cache L2 6 MB 40 MB 60 MB
Pamięć 16 GB HBM2 40/80 GB HBM2e 100 GB HBM2e lub HBM3
Przepustowość pamięci 900 GB/s 1555 GB/s 2687 GB/s
FP32 15.7 TFLOPS 19.5 TFLOPS 24.2 TFLOPS (dla 1 rdzenia graficznego)
FP16 125 TFLOPS 312 TFLOPS 779 TFLOPS (dla 1 rdzenia graficznego)

NVIDIA Hopper GH100 - opracowanie naukowe firmy daje pierwszy wgląd w specyfikację akceleratora graficznego nowej generacji [2]

NVIDIA Hopper GH100 - opracowanie naukowe firmy daje pierwszy wgląd w specyfikację akceleratora graficznego nowej generacji [3]

Wykorzystanie architektury COPA-GPU mogłoby wpłynąć na tworzenie różnych akceleratorów graficznych, ściśle zaprojektowanych pod obliczenia HPC lub AI (Deep Learning), tym samym wykorzystując ich pełny potencjał bez obawy o utratę wydajności.

AMD Instinct MI250X oraz EPYC Milan-X - modułowe GPU oraz serwerowe procesory z pamięcią 3D V-Cache już oficjalnie

Dokumentacja zdradza także pomysł na wykorzystanie różnych akceleratorów, opartych na architekturze COPA-GPU (Composable On-package Architecture), gdzie różne układy miałyby inną budowę i charakterystykę, dzięki czemu można by je dostosować do różnych typów obliczeń np. ściśle pod segment HPC lub pod uczenie maszynowe (AI - Deep Learning). Według artykułu naukowego, układy przygotowane pod obliczenia AI oferowałyby np. znacznie więcej pamięci cache, dzięki dodatkowemu modułowi (modułom) umieszczonemu obok głównej matrycy rdzenia graficznego. Poniższa tabela zdradza kilka potencjalnych wariantów takich akceleratorów, gdzie moglibyśmy otrzymać nawet 1920 MB pamięci cache oraz do 233 GB pamięci VRAM o przepustowości do 6.3 TB/s. Oczywiście to nadal naukowa rozprawka, ale nie będziemy zaskoczeni, jeśli NVIDIA wprowadzając na rynek architekturę Hopper, zadba o różne typy akceleratorów, które będą wyspecjalizowane w różnych typach obliczeń.

NVIDIA Hopper GH100 - opracowanie naukowe firmy daje pierwszy wgląd w specyfikację akceleratora graficznego nowej generacji [4]

Źródło: ACM Digital Library, WCCFTech
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 38

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.