NVIDIA A2 - niskoprofilowy akcelerator Ampere, przygotowany z myślą o obliczeniach związanych ze sztuczną inteligencją
NVIDIA w 2020 roku wprowadziła do oferty karty graficzne oparte na architekturze Ampere. Dotychczas rodzina ta została podzielona na trzy odrębne segmenty, różniące się ich wykorzystaniem. Otrzymaliśmy akceleratory przygotowane dla rynku HPC oraz AI. Ponadto wprowadzono konsumenckie karty GeForce RTX 3000 oraz profesjonalne układy RTX A, które zastąpiły w nomenklaturze wcześniejsze karty Quadro RTX. Podczas konferencji GTC 2021, która właśnie się odbywa, NVIDIA zaprezentowała najmniejszy z dotychczasowych akceleratorów obliczeniowych opartych na architekturze Ampere. Pomimo niewielkich rozmiarów, także został stworzony z myślą o obliczeniach opartych na sztucznej inteligencji.
Podczas konferencji GTC 2021, firma NVIDIA zaprezentowała najmniejszy z dotychczasowych akceleratorów Ampere, przygotowanych z myślą o obliczeniach AI. Mowa o układzie A2, opartym na rdzeniu GA107.
NVIDIA Tesla A100 - specyfikacja najmocniejszej karty na świecie
NVIDIA A2 to piąty przedstawiciel akceleratorów opartych na architekturze Ampere. Dotychczas producent wprowadził do oferty następujące układy: NVIDIA A100, NVIDIA A40, NVIDIA A30 oraz NVIDIA A16. Najnowszy wariant, A2, oparty został na dość mocno przyciętym rdzeniu graficznym GA107. Posiada on zaledwie 1280 aktywnych rdzeni CUDA oraz 40 rdzeni Tensor 3. generacji. NVIDIA A2 to konstrukcja niskoprofilowa, zajmująca jeden slot PCIe. Współczynnik TDP jest bardzo niski i wynosi od 40 do 60 W w zależności od obciążenia. Nie wymaga zatem do zasilania podpinania zewnętrznych wtyczek zasilających do głównego zasilacza. W zamyśle producenta, układ NVIDIA A2 jest następcą modelu Tesla T4, opartego na architekturze Turing (TU104), który przy wyższej wydajności w obliczeniach AI ma pobierać mniej energii (TDP 40/60 W vs 75 W).
NVIDIA A2 | NVIDIA A16 | NVIDIA A30 | NVIDIA A40 | NVIDIA A100 | |
Architektura | Ampere | Ampere | Ampere | Ampere | Ampere |
Układ graficzny | GA107 | 4x GA107 | GA100-890 | GA102-895 | GA100-884/883 |
Litografia | 8 nm Samsung | 8 nm Samsung | 7 nm TSMC | 8 nm Samsung | 7 nm TSMC |
Rdzenie CUDA | 1280 | 5120 | 3584 | 10752 | 6912 |
Rdzenie Tensor | 40 | 160 | 224 | 672 | 432 |
Wydajność FP32 | 4.5 TFLOPS | 18 TFLOPS | 10.3 TFLOPS | 37.4 TFLOPS | 19.5 TFLOPS |
Pamięć | 16 GB GDDR6 | 4x 16 GB GDDR6 | 24 GB HBM2e | 48 GB GDDR6 | 40/80 GB HBM2e |
Magistrala | 128-bit | 128-bit | 3072-bit | 384-bit | 5120-bit |
Przepustowość | 200 GB/s | 200 GB/s | 933 GB/s | 696 GB/s | Do 1.94 TB/s |
TDP | 40-60 W | 250 W | 165 W | 300 W | 400 W (SXM4) / 250 W (PCIe) |
NVIDIA A100 PCIe 80 GB - prezentacja najmocniejszego akceleratora oraz omówienie techniki GPUDirect Storage
Taktowanie bazowe karty wynosi 1440 MHz, z kolei w trybie GPU Boost wzrasta do 1770 MHz. Choć sam rdzeń graficzny jest mocno obcięty, jednocześnie NVIDIA A2 oferuje całkiem sporo pamięci bo 16 GB GDDR6 na 128-bitowej magistrali pamięci, osiągając przepustowość 200 GB/s. W znormalizowanych aplikacjach ukierunkowanych na obliczenia AI, nowy akcelerator NVIDIA A2 oferuje od 20 do 30% wyższą wydajność w stosunku do układu NVIDIA T4. W porównaniu do poprzednika A2 ma także oferować do 60% lepszy stosunek ceny do wydajności oraz o 10% lepszą efektywność energetyczną w porównaniu do układu NVIDIA T4. Choć bez wątpienia nie jest to tak ogromny akcelerator jak zaprezentowany wczoraj AMD Instinct MI250X, to z pewnością okaże się ciekawym wyborem partnerów OEM. Cena nie została podana do publicznej wiadomości, przy czym NVIDIA deklaruje, że firmy OEM mogą już składać zamówienia na nowy akcelerator dla obliczeń AI.