Test GeForce RTX 2080 Ti SLI - podwójna wydajność czy problemy?
- SPIS TREŚCI -
- 1 - To nie jest platforma dla biednych ludzi
- 2 - Platforma testowa i ustawienia
- 3 - Test wydajności 3DMark Time Spy - DirectX 12
- 4 - Test wydajności Assassin's Creed: Origins - DirectX 11
- 5 - Test wydajności Battlefield 1 - DirectX 11
- 6 - Test wydajności Deus Ex: Mankind Divided - DirectX 11
- 7 - Test wydajności Dishonored 2 - DirectX 11
- 8 - Test wydajności Far Cry 5 - DirectX 11
- 9 - Test wydajności Ghost Recon: Wildlands - DirectX 11
- 10 - Test wydajności Kingdom Come: Deliverance - DirectX 11
- 11 - Test wydajności Mass Effect: Andromeda - DirectX 11
- 12 - Test wydajności Shadow of the Tomb Raider - DirectX 12
- 13 - Test wydajności Watch Dogs 2 - DirectX 11
- 14 - Test wydajności Witcher 3: Wild Hunt - DirectX 11
- 15 - Test wydajności Wolfenstein II: The New Colossus - Vulkan
- 16 - Podsumowanie - Na drugą nóżkę?
Maniacy bezkompromisowej wydajności, maksymalnych ustawień graficznych oraz najwyższych rozdzielczości, przeważnie kierowali swoje pożądliwe spojrzenia w kierunku konfiguracji multi-GPU, pokładając nadzieje w technice NVIDIA SLI. Ponieważ Zieloni zapewniali przyzwoite wsparcie takich zestawów, zazwyczaj dysponując również wydajniejszym high-endem gdzie łączenie układów nabiera rzeczywistego sensu, przyszłość SLI wydawała się niezagrożona. Nastała jednak epoka 4K stawiająca przed sprzętem okrutne wymagania. Dlatego oczy wszystkich entuzjastów skierowane zostały na architekturę Turing, posiadającą między innymi wydajniejszą implementację SLI, mającą odgrywać kluczową funkcję w lepszym wykorzystaniu zasobów sprzętowych. Czy topowa konfiguracja z dwiema kartami będzie spełnieniem marzeń wyznawców PCMR? Trzeba sprawdzić... Wziąłem zatem dwa GeForce RTX 2080 Ti, postawiłem na platformie HEDT, sprawdziłem kilkanaście wymagających gier komputerowych i nareszcie mogę podzielić się wnioskami.
Autor: Sebastian Oktaba
Architektura Turing przyniosła liczne modyfikacje w infrastrukturze służącej do komunikacji między układami - zamiast tradycyjnych złączy SLI wprowadzono NVLink drugiej generacji, obecne chociażby w akceleratorach bazujących na rdzeniach Volta. Nowocześniejszy interfejs zapewnia wyższą przepustowość, bardziej równomierne obciążenie oraz mniejsze opóźnienia między procesorami graficznymi, co teoretycznie powinno zwiększyć ogólną wydajność. Technika stosowana między innymi w akceleratorach Quadro umożliwia również bezpośredni dostęp do pamięci innych podłączonych procesorów graficznych, jednak wersja przygotowana dla GeForce RTX 2000 pozostaje tylko rozwinięciem SLI, dlatego konsolidacja VRAM tutaj nie występuje. Bezproblemowo powinny natomiast działać wszystkie profile SLI jakie dotychczas powstały. Układ TU102 napędzający GeForce RTX 2080 Ti posiada dwa złącza NVLink x8, każde może jednokierunkowo dostarczyć do 25 GB/s, natomiast całkowita łączna dwukierunkowa przepustowość podsystemu wynosi do 100 GB/s. Rozwiązanie jest zdecydowanie bardziej nowoczesne, ciągle niestety mające poważne ograniczenia (brak łączenia przestrzeni VRAM), obsługujące maksymalnie dwa identyczne układy graficzne oraz wymagające twardego mostka NVLink SLI, posiadającego dwukrotnie więcej pinów względem zwykłego SLI (52 vs 124). Ostatniego elementu nie znajdziemy w zestawie z GeForce RTX 2000 - jest dodatkowo płatny i trzeba szykować 79 USD. Generalnie, zmiany zapowiadają się naprawdę obiecująco.
SLI nigdy nie należało do tanich, jednak oferowało całkiem dobre skalowanie, kusząc entuzjastów dysponujących zasobniejszym portfelem. Zaraz sprawdzę jak sytuacja wygląda w przypadku GeForce RTX 2080 Ti oraz NVLink...
Koszt zbudowania topowej konfiguracji SLI może wyglądać przerażająco, ponieważ oprócz pieruńsko drogich kart graficznych, potrzebujemy jeszcze odpowiedniej platformy (HEDT) zapewniającej przynajmniej 40 linii PCI-Exprress, porządnego zasilacza oraz opcjonalnie monitora 4K, jeżeli takowego jakimś cudem nie posiadamy. Jesteście gotowi wykonać przybliżony kosztorys? Tabletki na obniżenie ciśnienia łyknęliście? Policzmy zatem... Duet GeForce RTX 2080 Ti razem z mostkiem NVLink będzie kosztował ponad 10 000 złotych, procesor Intel Core i9-7900X jakieś 4000 złotych, płyta główna LGA 2066 wyszarpie 1200 złotych, 16 GB Quad Channel 3200 CL16 zabierze 700 złotych, natomiast na średniej klasy zasilacz 1000W potrzebujemy kolejne 600 złotych. Jeśli doliczymy jeszcze przyzwoity monitor 4K, pojemny nośnik półprzewodnikowy, konkretną obudowę i system chłodzenia, wyjdzie nam nieskromne 20 000 złotych... Słyszę to zgrzytanie zębami! Pieniądze okazują się naprawdę solidne, tutaj nie wystarczy poprosić babci o wsparcie, dlatego raczej niewielki odsetek graczy interesuje się dzisiaj multi-GPU, zwłaszcza iż najnowsza generacja oferuje obsługę SLI dopiero od modelu GeForce RTX 2080 wzwyż. Zasadność takiego wydatku będzie oczywiście uzależniona od wsparcia oprogramowania. Gdyby skalowanie zawsze wynosiło 100%, prawdopodobnie przekonałoby trochę niezdecydowanej populacji, aczkolwiek żyjemy w czasach leniwych deweloperów, fatalnych implementacji DirectX 12 oraz blamaży optymalizacyjnych, które połączone razem skutecznie mordują nawet najwydajniejszy sprzęt komputerowy.
Test NVIDIA GeForce RTX 2080 Ti - Turing nowym królem wydajności
Poniższa publikacja powinna udzielić także ostatecznej odpowiedzi na pytanie, która platforma sprzętowa będzie optymalna dla pojedynczego GeForce RTX 2080 Ti, bowiem w czeluściach internetu napotykałem komentarze, że NVIDIA Turing optymalną wydajność osiąga wyłącznie w towarzystwie HEDT. Szczerze powiedziawszy nie widziałem absolutnie żadnego argumentu mogącego w jakikolwiek sposób obronić przytoczoną teorię. W większości gier komputerowych architektura Skylake-X okazała się zauważalnie wolniejsza od Coffee Lake, różnica w osiągalnych zegarach dołożyła swoje, natomiast przy wyższych rozdzielczościach wpływ procesora na kształtowanie się wyników ulega przecież drastycznemu zmniejszeniu. Postanowiłem to jednak dokładnie sprawdzić. Dlatego na wykresach znajdziecie platformy zbudowane na Intel Core i7-8700K 5000 MHz (DDR4 3200 CL16), jak również Intel Core i9-7900X 4500 MHz (DDR4 3200 CL16). Oczywiście, testy konfiguracji SLI zostały wykonane na HEDT, pamięciach Quad Channel oraz podkręconym NB. Procedura obejmuje trzynaście najbardziej wymagających gier komputerowych z ostatnich kilkunastu miesięcy. Wybór API podyktowany był natomiast sprawnością realizowania SLI / Multi-GPU, ponieważ DirectX 12 dokonał istotnych zmian względem DirectX 11, niejednokrotnie będąc znacznie mniej efektywnym rozwiązaniem od starszego interfejsu np.: Deus Ex: Mankind Divided skaluje się przyzwoicie w DirectX 11, podczas gdy instalacja drugiej karty graficznej w DirectX 12 przynosi minimalne zyski.
Sprzęt do testów dostarczyła firma MSI:
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- …
- następna ›
- ostatnia »
- SPIS TREŚCI -
- 1 - To nie jest platforma dla biednych ludzi
- 2 - Platforma testowa i ustawienia
- 3 - Test wydajności 3DMark Time Spy - DirectX 12
- 4 - Test wydajności Assassin's Creed: Origins - DirectX 11
- 5 - Test wydajności Battlefield 1 - DirectX 11
- 6 - Test wydajności Deus Ex: Mankind Divided - DirectX 11
- 7 - Test wydajności Dishonored 2 - DirectX 11
- 8 - Test wydajności Far Cry 5 - DirectX 11
- 9 - Test wydajności Ghost Recon: Wildlands - DirectX 11
- 10 - Test wydajności Kingdom Come: Deliverance - DirectX 11
- 11 - Test wydajności Mass Effect: Andromeda - DirectX 11
- 12 - Test wydajności Shadow of the Tomb Raider - DirectX 12
- 13 - Test wydajności Watch Dogs 2 - DirectX 11
- 14 - Test wydajności Witcher 3: Wild Hunt - DirectX 11
- 15 - Test wydajności Wolfenstein II: The New Colossus - Vulkan
- 16 - Podsumowanie - Na drugą nóżkę?