Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Test kart graficznych NVIDIA GeForce RTX 4080 vs GeForce RTX 3090 Ti - Byłaby rewelacja, gdyby nie zaporowa cena

Sebastian Oktaba | 15-11-2022 15:00 |

Test kart graficznych NVIDIA GeForce RTX 4080 vs GeForce RTX 3090 Ti - Byłaby rewelacja, gdyby nie zaporowa cenaPremierowa recenzja NVIDIA GeForce RTX 4080 Founders Edition zgodnie z planem wjechała na PurePC i nareszcie możecie poznać niezależne wyniki wydajności drugiej karty graficznej w rodzinie Ada Lovelace. Chociaż opisywana nowość jest zauważalnie okrojona względem topowego NVIDIA GeForce RTX 4090, nadal reprezentuje jednak high-end, bowiem następca NVIDIA GeForce RTX 3080 powinien spokojnie wyprzedzać NVIDIA GeForce RTX 3090 Ti. Producent obiecywał nie tylko znacznie wyższą wydajność, ale również więcej pamięci i wianuszek nowych technologii, które podnoszą jakość grania na NVIDIA GeForce RTX 4080. Niestety, wszystko to zostało okupione wyraźnym podniesieniem ceny detalicznej.

Autor: Sebastian Oktaba

Rodzina kart graficznych NVIDIA GeForce RTX 4000 bazuje na architekturze Ada Lovelace, która przeszła szereg usprawnień względem Ampere napędzającego serię GeForce RTX 3000. Przede wszystkim dołożono znacznie więcej pamięci Cache L2, przebudowano bloki GPC, wprowadzono jednostki Tensor 4. generacji oraz jednostki RT 3. generacji. Celem nadrzędnym producenta było zmaksymalizowanie wydajności śledzenia promieni i usprawnienie techniki DLSS. Właśnie tutaj dokonano najpoważniejszych modyfikacji, bowiem DLSS 3 będzie nie tylko upscalować obraz, ale również zwielokrotniać ilość klatek animacji niwelując jednocześnie bottleneck za strony procesora. DLSS 3 działa jednak wyłącznie na układach Ada Lovelace, ponieważ wymaga nowych jednostek obliczeniowych zintegrowanych w Tensorach 4. generacji. Zastosowano również 5 nm litografię TSMC pozwalającą upchnąć 2,5x więcej tranzystorów na zbliżonej powierzchni, a dodatkowo uzyskać wysokie taktowania. Względem poprzednika można oczekiwać około 60-70% wzrostu wydajności w rasteryzacji, nawet 100% w śledzeniu promieni oraz 100-400% w DLSS.

NVIDIA GeForce RTX 4080 na papierze bliżej do GeForce RTX 3090, ale wydajność powinna być znacznie wyższa od dotychczasowego króla -GeForce RTX 3090 Ti. Mniejszy rdzeń to także mniejszy pobór energii i ilość wydzielanego ciepła. Szkoda, że cena z tego powodu nie jest mniejsza...

Test kart graficznych NVIDIA GeForce RTX 4080 vs GeForce RTX 3090 Ti - Byłaby rewelacja, gdyby nie zaporowa cena [nc1]

Topowe modele poprzedniej generacji bazowały na różnych wariantach układu GA102, natomiast NVIDIA GeForce RTX 4080 oraz GeForce RTX 4090 zbudowano na zupełnie innych kawałkach krzemu. Rdzeń AD103 względem AD102 okrojono z około 30 miliardów tranzystorów, zajmuje też znacznie mniejszą powierzchnię, co znajduje oczywiście odzwierciedlenie w specyfikacji technicznej i efektywności energetycznej. Serce GeForce RTX 4080 zawiera 9728 procesorów CUDA, 304 jednostki teksturujące, 112 jednostek renderujących, 82 jednostki RT oraz 328 jednostek Tensor. Jeśli spojrzymy wyłącznie na statystyki, to recenzowanej karcie graficznej zdecydowanie bliżej do NVIDIA GeForce RTX 3090 aniżeli GeForce RTX 3080. Pamiętajmy jednak o zastosowaniu nowszych typów jednostek obliczeniowych, które z generacji na generację zyskują na wydajności. Jakby nie patrzeć - producent tym razem wyraźnie oddzielił obydwie serie, zostawiając więcej miejsca na potencjalnie możliwe NVIDIA GeForce RTX 4080 Ti / RTX 4090 Ti.

  RTX 4090 RTX 4080 RTX 3090 RTX 3080
Architektura Ada Lovelace Ada Lovelace Ampere Ampere
Układ graficzny AD102 AD103 GA102 GA102
Litografia 5 nm 5 nm 8  nm 8 nm
Rozmiar rdzenia 608 mm² 379 mm² 628 mm² 628 mm²
Tranzystory 76 mld 46 mld 28 mld 28 mld
Jednostki SP 16384 9728 10496 8704
Jednostki TMU 512 304 328 272
Jednostki ROP 192 112 112 96
Jednostki RT 128 76 82 68
Jednostki Tensor 512 304 328 272
Taktowanie bazowe 2235 MHz 2205 MHz 1395 MHz 1440 MHz
Taktowanie boost 2520 MHz 2505 MHz 1650 MHz 1710 MHz
Taktowanie pamięci 21200 MHz 22400 MHz 19500 MHz 19000 MHz
Ilość pamięci 24 GB 16 GB 24 GB 10 GB
Typ pamięci GDDR6X GDDR6X GDDR6X GDDR6X
Szyna pamięci 384-bit 256-bit 384-bit 320-bit
Przepustowość 1020 GB/s 717 GB/s 937 GB/s 760 GB/s
Interfejs PCI-E 4.0 x16 PCI-E 4.0 x16 PCI-E 4.0 x16 PCI-E 4.0 x16
Współczynnik TGP 450 W 320 W 350 W 320 W
Cena startowa 1599 USD 1199 USD 1499 USD 699 USD

Test wydajności gry Marvel's Spider-Man Remastered PC - DLSS 3 na karcie graficznej NVIDIA GeForce RTX 4090

NVIDIA GeForce RTX 4080 względem GeForce RTX 3080 nareszcie zyskała więcej pamięci, której zainstalowano 16 GB GDDR6X, jednak zarazem zwężono szynę podsystemu. Poprzednik dysponował 10 GB GDDR6X 320-bit albo 12 GB GDDR6X 384-bit, podczas gdy recenzowana NVIDIA GeForce RTX 4080 musi zadowolić się magistralą 256-bitową. Automatycznie niższa jest również przepustowość VRAM, porównywalna z podstawowym GeForce RTX 3080, co może wydawać się kuriozalną decyzją w przypadku układu szybszego od GeForce RTX 3090 Ti. Rdzeń pracuje z częstotliwością 2205 MHz, osiągając w trybie GPU Boost 2770 MHz, natomiast pamięci działają z rekordowo wysokim taktowaniem 22400 MHz. Korzystnym efektem zastosowania chipu AD103 jest znacznie obniżenie współczynnika TGP, identycznego jak u poprzednika (320 W), czego nie można niestety powiedzieć o cenie. NVIDIA GeForce RTX 4080 będzie dokładnie 500 dolarów droższy od GeForce RTX 3080 10 GB, czyli startuje z poziomu GeForce RTX 3080 Ti.

Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Sebastian Oktaba
Liczba komentarzy: 366

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.