AMD Ryzen R5 1400 - Test na GeForce GTX 1060 i Radeon RX 480
- SPIS TREŚCI -
- 1 - AMR Ryzen 5 1400 i Radeon RX 480 - przepis na sukces?
- 2 - Platforma testowa i metodyka pomiarowa
- 3 - Test wydajności Battlefield 1 - 1920x1080 / DirectX 11 & 12
- 4 - Test wydajności Deus Ex - 1920x1080 / DirectX 11 & 12
- 5 - Test wydajności Hitman - 1920x1080 / DirectX 11 & 12
- 6 - Test wydajności Rise of the Tomb Raider - 1920x1080 / DirectX 11 & 12
- 7 - Test wydajności Total War: Warhammer - 1920x1080 / DirectX 11 & 12
- 8 - Podsumowanie - Jak to wszystko w końcu działa?
Wydajność procesorów AMD Ryzen w grach komputerowych wzbudza wiele skrajnych emocji, które zagorzałym zwolennikom produktów firmy z Sunnyvale pozwalają nawet wysnuwać oskarżenia, że wszystkie testy przedstawiające Ryzeny w gorszym świetle zostały wykonane niewłaściwie lub celowo zmanipulowane. Takie paszkwile to niestety smutna internetowa rzeczywistość, jednak wśród najróżniejszych teorii spiskowych wyłoniła się interesująca poszlaka warta dokładniejszego zweryfikowania, a dotycząca wpływu wykorzystanej karty graficznej na wyniki procesorów. Zamieszanie dotyczyło głównie trybu DirectX 12 oraz Rise of the Tomb Raider, niemniej przy okazji postanowiłem sprawdzić także Battlefield 1, Deus Ex: Mankind Divided, Hitman i Total War: Warhammer. Wszystkie obsługują bowiem obydwa API, których wydajność na Ryzen 5 1400 pomogą ocenić podkręcone GeForce GTX 1060 i Radeon RX 480.
Autor: Sebastian Oktaba
Zacznijmy od wyjaśnienia kwestii absolutnie podstawowej - dlaczego większość redakcji technologicznych używa w testach procesorów kart graficznych GeForce GTX 1070/1080/Titan? Właścicieli bujnej wyobraźni muszę niestety rozczarować, ponieważ wybór topowych Pascali jest autonomiczną decyzją rozgarniętych dziennikarzy, którzy chcąc uzyskać miarodajne wyniki muszą wyeliminować lub zminimalizować zjawisko tzw.: wąskiego gardła (bottleneck). Chodzi o fundamentalną zasadę, aby wykorzystana karta graficzna nie hamowała procesorów, co mogłoby prowadzić do spłaszczenia wykresów oraz zafałszowania prawdziwej chronologii, gdzie budżetowy Intel Pentium G4560 albo FX-4300 dorównywałyby Intel Core i7-7700K. Podobnie jest w przypadku testów GPU, wymagających do uniknięcia bottlenecka odpowiednio szybkiego CPU. Większość publikacji poświęconych Ryzenom była przeprowadzona na układach NVIDII z jednego prostego powodu - AMD aktualnie nie dysponuje odpowiednikiem GeForce GTX 1080, natomiast Radeon R9 Fury dyskwalifikuje zaledwie 4GB pamięci oraz symboliczny potencjał podkręcania. Oczywiście, można zredukować ustawienia lub ostatecznie obniżyć rozdzielczość, jednak tylko nieliczni chcieliby oglądać pomiary w zubożonym 1280x720. Niektórym ciężko to zrozumieć, zatem uprzejmie objaśniam dlaczego w platformach testowych dominują modele GeForce, a dodatkowo jeszcze przypominam, że NVIDIA opanowała jakieś 75% rynku desktopowych kart graficznych. Uff... Teraz nareszcie możemy przejść do właściwego tematu, a mianowicie uzależnienia wydajności procesora centralnego od zastosowanego API.
AMD Ryzen w połączeniu z kartą graficzną NVIDIA GTX 1080 wypadł raczej nieciekawie, zwłaszcza w grach działających w trybie DirectX 12, ale pojawiły się przesłanki, że winna może być architektura Pascal lub sterownik. Dziś zobaczymy jak Ryzen 5 1400 wypadnie w połączeniu z Radeonem RX 480, naprzeciw którego stanie klasowy konkurent - GeForce GTX 1060.
Charakterystyka działania DirectX 11 powinna być wszystkim doskonale znana, wszak obarczony masywnym front-endem wysokopoziomowy interfejs mający wiele ograniczeń (m.in.: ilość draw calls), ciągle jest najpopularniejszym API wykorzystywanym przy tworzeniu grafiki trójwymiarowej. Natomiast DirectX 12 dzięki niskopoziomowemu dostępowi do zasobów, miało obarczyć układy graficznych większą ilością operacji, które zamiast grzecznie oczekiwać w potoku wykonawczym, byłyby realizowane asynchronicznie razem z pozostałymi zadaniami. Taki mechanizm pozwala odciążyć procesor mogący stanowić wąskie gardło systemu, zatem innymi słowy - teoretycznie stosunkowo słabe CPU powinno wystarczyć do obsługi bardzo wydajnych GPU. Tutaj pojawia się kwestia obsługi Async Compute. Architekturę GCN wyposażono w sprzętowe jednostki obliczeń asynchronicznych (ACE), połączone z procesorem rozkazów poprzez kontrolery DMA, które zajmują się różnymi zadaniami. Rdzenie Hawaii, Tonga i Fiji otrzymały osiem ACE, wcześniejsze wersje GCN posiadają ich czterokrotnie mniej, podczas gdy Polarisowi zafundowano cztery jednostki wsparte dwoma dyspozytorami, co miało wpłynąć korzystnie także na narzut sterownika. NVIDIA powyższe polecenia realizuje programowo, dlatego w trybie DirectX 12 bardzo często odnotowuje symboliczne przyrosty wydajności lub straty. Przełączanie kontekstu nie działa szczególnie efektywnie nawet na Pascalach. Pytanie, jak podobne niuanse wpływają na wydajność Ryzena, kiedy zamiast GeForce'a wstawimy Radeona.
Do czego właściwie zmierzam? Otóż, wielokrotnie zostało udowodnione, że połączenie najmocniejszej karty graficznej oraz procesora AMD stanowi niezawodny przepis na zabicie wydajności obojga, zwłaszcza kiedy w portfolio Czerwonych mieliśmy do wyboru wyłącznie FX-y. Zdecydowanie lepszym rozwiązaniem były kombinacje CPU Intel & GPU NVIDIA, CPU Intel & GPU AMD oraz GPU NVIDIA & CPU AMD. Dlatego w upowszechnieniu się interfejsu DirectX 12, premierach Polarisa i Ryzenów sympatycy AMD upatrywali rewolucji. Początkowo niewiele jednak wskazywało, że cokolwiek mogłoby się zmienić... I nagle wybuchła bomba! Niższa wydajność procesorów AMD Ryzen zestawionych z kartami graficznymi NVIDII została potwierdzona w Rise of the Tomb Raider działającym pod komendą DirectX 12. Wprawdzie to zaledwie jeden nagłośniony przypadek, ale kolejnym będzie najprawdopodobniej Hitman, który działa znacznie lepiej na Radeonie RX 480, aniżeli GeForce GTX 1060, kiedy sercem zestawu jest Ryzen 5 1400. Społeczność natychmiast obwieściła, że NVIDIA celowo hamuje AMD, aczkolwiek bardziej racjonalnym wyjaśnieniem wydaje się problem natury programowej (sterownik) lub sprzętowej (architektura). Cóż... Zobaczymy co pokażą Battlefield 1, Deus Ex: Mankind Divided i Total War: Warhammer, umożliwiające sprawdzenie różnic między DirectX 11 oraz DirectX 12. Jeśli wszędzie sytuacja będzie się powtarzać, to zrobi się jeszcze ciekawiej...
UWAGA: Karty graficzne użyte w testach zostały podkręcone do maksymalnych stabilnych taktowań, aby wyeliminować zjawisko bottleneck (tylko w Battlefield 1 nie udało się tego uniknąć). AMD Ryzen 5 1400 został też podkręcony, posiada wszak odblokowany mnożnika, zaś Intel Core i5-7400 musiał zadowolić się bazowym zegarem. Obydwa procesory pracują na nieco innych pamięciach, których taktowania są zgodne z oficjalnymi zaleceniami producentów, a zarazem odpowiadają najpopularniejszym zestawom kupowanym dla takich platform. Jak prosiliście - powstało porównanie konfiguracji bardzo bliskie zakupowej rzeczywistości.
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- następna ›
- ostatnia »
- SPIS TREŚCI -
- 1 - AMR Ryzen 5 1400 i Radeon RX 480 - przepis na sukces?
- 2 - Platforma testowa i metodyka pomiarowa
- 3 - Test wydajności Battlefield 1 - 1920x1080 / DirectX 11 & 12
- 4 - Test wydajności Deus Ex - 1920x1080 / DirectX 11 & 12
- 5 - Test wydajności Hitman - 1920x1080 / DirectX 11 & 12
- 6 - Test wydajności Rise of the Tomb Raider - 1920x1080 / DirectX 11 & 12
- 7 - Test wydajności Total War: Warhammer - 1920x1080 / DirectX 11 & 12
- 8 - Podsumowanie - Jak to wszystko w końcu działa?
Powiązane publikacje

Test AMD Ryzen 9 9950X3D - Najlepszy procesor do gier i pracy? Kosztuje sporo, jednak AMD zadaje mocny cios konkurencji
175
Test AMD Ryzen AI Max+ 395 - Najwydajniejsze APU na świecie, oparte na architekturze x86 i Zen 5. Test na różnych limitach mocy
71
Test tanich procesorów AMD Ryzen 5 7500F vs Intel Core i5-12400F - Który procesor zyskuje więcej na szybkiej pamięci RAM DDR5?
177
Jaki procesor kupić? Co wybrać w cenie od 400 do 3000 złotych? Lepszy Intel czy AMD? Poradnik zakupowy na listopad 2024
150