Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

NVIDIA wprowadza zmiany w chipach Vera Rubin dla rynku AI w obawie przed akceleratorami AMD Instinct MI450

Mateusz Szlęzak | 29-09-2025 12:30 |

NVIDIA wprowadza zmiany w chipach Vera Rubin dla rynku AI w obawie przed akceleratorami AMD Instinct MI450Chipy NVIDIA Vera Rubin, według najnowszych doniesień, są już w fazie preprodukcji w zakładach TSMC. Równocześnie AMD planuje wprowadzenie akceleratorów Instinct MI450, które pod względem specyfikacji mogą realnie zagrozić dominującej pozycji NVIDII na rynku układów AI. Według nieoficjalnych informacji firma zwiększyła przepustowość pamięci HBM4, a także (podobno) parametr TGP całego układu, choć w tym zakresie pojawiają się pewne nieścisłości.

NVIDIA zwiększyła przepustowość podsystemu pamięci opartego na kościach HBM4 z 13 TB/s do 20 TB/s w chipach Vera Rubin. Pojawiają się również doniesienia o podniesieniu parametru TGP dla układu NVIDIA R200, choć w pewnym sensie nie jest to nowość.

NVIDIA wprowadza zmiany w chipach Vera Rubin dla rynku AI w obawie przed akceleratorami AMD Instinct MI450 [1]

NVIDIA Vera Rubin już w fazie preprodukcji w fabrykach TSMC. Tymczasem chińscy giganci oczekują na chipy B30A

Według doniesień z sieci układ NVIDIA R200, oparty na architekturze Vera Rubin, ma otrzymać szybszy podsystem pamięci wykorzystujący kości HBM4. Mowa o zwiększeniu przepustowości z 13 TB/s do 20 TB/s. Ponieważ zmiany w samej architekturze wydają się mało prawdopodobne, najpewniej chodzi o zastosowanie szybszych wariantów pamięci, o których niedawno pisaliśmy. Firma może wykorzystać kości SK hynix o transmisji danych 10 Gb/s na pin i przepustowości około 2,56 TB/s na kość. Skoro układ R200 ma w sumie 8 kości, daje to dokładnie 20,48 TB/s, co wydaje się najbardziej prawdopodobnym scenariuszem. Istnieje również możliwość użycia szybszych kości Microna (11 Gb/s na pin, 2,8 TB/s na kość), jednak próbki są dopiero od niedawna rozsyłane. Biorąc pod uwagę, że układy z rodziny Vera Rubin są już w fazie preprodukcji w zakładach TSMC, wariant z kośćmi Microna wydaje się mniej prawdopodobny.

NVIDIA wprowadza zmiany w chipach Vera Rubin dla rynku AI w obawie przed akceleratorami AMD Instinct MI450 [2]

Poznaliśmy szczegóły specyfikacji pamięci od HBM4 do HBM8. Wbudowane chłodzenie, wysoka przepustowość i gęstość pamięci

Inaczej sprawa wygląda w przypadku rzekomego podniesienia parametru TGP. Według tego samego źródła pobór mocy całego chipu, wraz z pamięciami VRAM, miał wzrosnąć z 1800 W do 2300 W, a decyzja miała zostać podjęta dwa miesiące temu. Tymczasem oficjalne analizy KAIST i TERA, opublikowane już w czerwcu 2025 roku przy okazji prezentacji planu rozwoju pamięci od HBM4 do HBM8, wskazują, że Vera Rubin R200 posiada TGP równe 2200 W. Trudno więc uzasadnić wzrost o 400 W, a wątpliwe jest, by dotyczył on pamięci HBM4 od SK hynix, gdzie pojedyncza kość pobiera zaledwie 75 W (w sumie 600 W). Nieco bardziej prawdopodobny byłby wzrost poboru mocy dwóch chipletów GPU, jednak trudno jest to jednoznacznie określić. Z tego powodu do informacji o podniesieniu TGP warto podejść z pewnym sceptycyzmem.

NVIDIA wprowadza zmiany w chipach Vera Rubin dla rynku AI w obawie przed akceleratorami AMD Instinct MI450 [3]

Micron rozpoczął wysyłki próbnych, wydajniejszych kości HBM4 oraz pracuje nad jeszcze szybszymi pamięciami GDDR7

Mimo wszystko ruch NVIDIA pokazuje, że firma obawia się akceleratorów AMD Instinct MI450X, których szerszy opis można znaleźć w tym miejscu. Pojemność podsystemu pamięci takiego akceleratora sięgnie gigantycznych 432 GB, a przepustowość osiągnie 19,6 TB/s. Na chwilę obecną AMD deklaruje, że moc obliczeniowa Instinct MI450 w obliczeniach FP4 wyniesie 40 petaflopów, natomiast w przypadku FP8 - 20 petaflopów. Stanowi to realną konkurencję, a nawet w przypadku pojemności przewagę nad akceleratorami NVIDIA, które z kolei osiągają wyższą prędkość obliczeń FP4 - 50 petaflopów. Mimo to, w czasach gdy modele językowe rosną objętościowo w zastraszającym tempie, rozwiązanie AMD może okazać się bardzo atrakcyjne. Wszystko rozstrzygnie się w 2026 roku, a my będziemy o tym informować.

Źródło: X (@SemiAnalysis_), KAIST, Tera
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 10

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.