NVIDIA GeForce RTX 4000 może otrzymać dużo większą pamięć cache L2. Poznaliśmy schemat budowy układu AD102
Od kilkunastu godzin do sieci przedostają się kolejne informacje na temat architektury NVIDIA Ada, która będzie sercem nadchodzących kart graficznych GeForce RTX 4000. Poznaliśmy wstępne parametry układ AD102, AD103, AD104, AD106 oraz AD107, które zaoferują więcej bloków Streaming Multiprocessor oraz rdzeni CUDA FP32 - największy, po ponad 70% wzrost, będzie miał miejsce w topowym układzie AD102. Tymczasem w sieci pojawiły się kolejne informacje, dotyczące m.in. budowy rdzenia AD102. Wygląda na to, że NVIDIA zamierza znacząco powiększyć ilość pamięci cache L2, tworząc coś na wzór pamięci Infinity Cache w obecnych kartach graficznych AMD Radeon RX 6000. Czego jeszcze dowiedzieliśmy się o nadchodzącej architekturze Ada?
Poznaliśmy kolejne szczegóły dotyczące architektury NVIDIA Ada, która zostanie wykorzystana w kartach graficznych GeForce RTX 4000. Nadchodząca generacja ma oferować znacznie większy cache L2 w porównaniu do architektury Turing czy Ampere.
NVIDIA GeForce RTX 4000 - w sieci opublikowano specyfikację układów graficznych Ada oraz kod źródłowy techniki DLSS
Obecny topowy układ Ampere GA102 charakteryzuje się obecnością tylko 6 MB pamięci cache L2. Nadchodzący AD102 ma zwiększyć ilość do 96 MB. Bardzo duże wzrosty nastąpią także w pozostałych układach AD10X - nawet najmniejszy chip AD107 zaoferuje więcej cache L2 niż topowy obecnie Ampere. Układ AD102 będzie wyposażony w łącznie 12 klastrów GPC - każdy blok GPC będzie wyposażony w 12 bloków SM oraz 1536 procesorów CUDA FP32. Łącznie układ AD102 zaoferuje 144 bloki SM oraz 18432 rdzenie CUDA. Poniższy diagram dokładnie prezentuje poszczególne jednostki i wszystko wskazuje na to, że dotychczasowe informacje były autentyczne. Zmiany szykują się także w wykorzystaniu magistrali pamięci - od AD103 do AD106 - wszystkie układy będą miały węższą szynę pamięci. Zmiany nie dotkną układów AD102 oraz AD107. Być może z tego względu, NVIDIA jednocześnie wprowadzi znacznie więcej cache L2. Zwiększy się także liczba rdzeni RT - układ AD102 zaoferuje ich 144. Powierzchnia chipu powinna sięgać około 600 mm², być może nieco więcej. Nie będzie to jednak rdzeń większy niż GA102. Spora w tym zasługa zastosowania 5 nm procesu technologicznego TSMC.
GA102 | AD102 | GA103 | AD103 | GA104 | AD104 | |
Szyna pamięci | 384-bit | 384-bit | 320-bit | 256-bit | 256-bit | 192-bit |
Cache L2 | 6 MB | 96 MB | 4 MB | 64 MB | 4 MB | 48 MB |
Rdzenie RT | 84 | 144 | 60 | 84 | 48 | 60 |
GA106 | AD106 | GA107 | AD107 | |
Szyna pamięci | 192-bit | 128-bit | 128-bit | 128-bit |
Cache L2 | 3 MB | 32 MB | 2 MB | 32 MB |
Rdzenie RT | 30 | 36 | 20 | 24 |
I know these before,
— kopite7kimi (@kopite7kimi) March 2, 2022
AD102 12*6 384bit ~600mm²
NOT MY SOURCES,
AD103 7*6 256bit
AD104 5*6 192bit
AD106 3*6 128bit
AD107 3*4 128bit
Celebrate the leak!
You don't need me anymore.
NVIDIA Ada, Hopper oraz Blackwell - nowe informacje na temat nadchodzących kart graficznych dla PC oraz HPC
Przy okazji pojawiły się także pierwsze informacje o profesjonalnym układzie GH100, wykorzystującym architekturę Hopper dla rynku HPC / AI. W tym wypadku informacje po ataku hakerów potwierdzają, że Hopper wykorzysta budowę typu MCM z dwoma matrycami obliczeniowymi. Każdy z nich będzie oferował 9216 rdzeni CUDA - w przypadku tej architektury na każdy blok SM przypadnie 64 rdzeni CUDA (klastrów SM będzie 144). Przy dwóch matrycach obliczeniowych, Hopper GH100 będzie łącznie oferował 18432 rdzenie CUDA.