Zgłoś błąd

X

Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.

Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschРусскийFrançaisEspañol中国

Nvidia G-Sync i SLI razem obniżają wydajność w grach

Piotr Gontarczyk | 24-10-2018 08:30 |

Nvidia G-Sync i SLI razem obniżają wydajność w grachPosiadacze kart graficznych GeForce od blisko dwóch lat skarżą się na to, że przy użyciu dwóch egzemplarzy, spiętych w systemie SLI, wraz z techniką G-Sync w niektórych grach wydajność spada bardzo mocno. Przez cały ten czas użytkownicy nie doczekali się ani poprawek, ani nawet wyjaśnień odnośnie do tego, dlaczego tak się dzieje. Sprawa co jakiś czas wypływała, ale tylko na forum dyskusyjnym Nvidii, na Reddicie, czy w innych serwisach społecznościowych. Co prawda mało jest osób, które mają np. dwie karty GeForce GTX 1080 w SLI oraz monitor z techniką G-Sync, ale ta grupa konsumentów wydaje najwięcej pieniędzy na swoje platformy do gier. Wygląda na to, że nawet ci co wydają najwięcej mogą być ignorowani.

Użytkownicy donoszą o spadkach wydajności od dawna, ale do dziś nie doczekali się ani rozwiązania, ani nawet wyjaśnienia.

Nvidia G-Sync i SLI razem obniżają wydajność w grach [1]

Ekipa ExtremeTech postanowiła przyjrzeć się choć trochę całej sprawie i zebrać doniesienia użytkowników oraz zestawić je z własnymi testami. Z danych pochodzących od użytkownika octiceps, który wyniki swoich testów opublikował na forum serwisu GeForce.com wynika, że na platformie z dwiema kartami GeForce GTX 1080 w grze Rising Storm 2 włączenie techniki G-Sync powoduje, że płynność animacji spada z 206 do zaledwie 75 klatek na sekundę. W Battlefieldzie 1 zanotował spadek ze 163 do 116 klatek, w Deus Ex: Mankind Divided ze 152 do 91 klatek, a w Sleeping Dogs: Definitive Edition ze 143 do 113 klatek. Najmniejszy spadek, ze 113 do 98 klatek na sekundę, octiceps zanotował w grze Wiedźmin 3. To jednak wciąż około 10% klatek mniej w każdej sekundzie. Podobne informacje publikowali już też inni użytkownicy, ale na ich głosy Nvidia pozostaje głucha.

Nvidia G-Sync i SLI razem obniżają wydajność w grach [2]

Test NVIDIA GeForce RTX 2080 - Szybszy od GeForce GTX 1080 Ti

Z testów przeprowadzonych przez ExtremeTech wynika, że problem to nie tylko samo połączenie technik G-Sync i SLI, bo w różnych grach spadki wydajności nie są takie same. W Deus Ex: Mankind Divided spadek zanotowano tylko w trybie z API DirectX 11. Z DirectX 12 wydajność pozostała bez zmian. W Far Cry 5 spadek w rozdzielczości 4K to z 68 do 58 klatek na sekundę. Wyszło jednak na to, że im więcej klatek na sekundę "wrażliwa" gra osiąga, tym większa jest skala strat. Widać to na przykładzie właśnie gry Far Cry 5, w której coraz bardziej zaawansowane ustawienia wygładzania krawędzi oczywiście zmniejszają płynność animacji, ale jednocześnie po włączeniu techniki G-Sync, każde kolejny krok w górę zmniejsza poziom strat. W grze Hitman natomiast spadki zaobserwowano zarówno w trybie DirectX 11, jak i 12. Problem nie jest więc związany z wersją DirectX-a.

Nvidia G-Sync i SLI razem obniżają wydajność w grach [3]

Najgorsze jest to, że błąd może tkwić w architekturze Pascal i nie da się go wyeliminować. Milczenie Nvidii może być potwierdzeniem.

Problemy z łączeniem technik G-Sync i SLI wciąż są zagadkowe. Analiza wyników testów sprowadza jednak do tego, że zarówno G-Sync, jak i SLI, to rozwiązania mocno wrażliwe na opóźnienia. Utrzymywanie synchronizacji GPU z monitorem wymaga czasu. To samo dotyczy przenoszenia danych z jednego GPU do drugiego, w systemie SLI. Dalej, przesłanie każdej klatki do monitora też wymaga czasu. Na każdym z tych etapów mówimy o wartościach bardzo małych, ale w tym zastosowaniu każda milisekunda może mieć duże znaczenie. Dlaczego skala strat rośnie wraz z liczbą klatek na sekundę? Przykładowo przy płynności 30 klatek na sekundę każda klatka musi zostać dostarczona w ciągu 33,3 ms. Przy 60 FPS-ach czas ten skraca się do 16,6 ms. Przy 120 FPS-ach każda klatka musi być wysłana przez GPU co 8,3 ms. Wraz ze wzrostem FPS-ów zacieśnia się więc gardełko czasowe komunikacji pomiędzy poszczególnymi GPU, synchronizacją jednego z nich z monitorem, a także na przesyłanie kolejnych klatek. Gdzieś na tej drodze tkwi jakiś problem i obecnie można obawiać się, że jest on sprzętowy, albowiem doniesienia o stratach wydajności pochodzą od posiadaczy kart GeForce z procesorami opartymi na architekturze Pascal. Pojawiły się już pierwsze doniesienia o tym, że w przypadku architektury Turing problem ten nie występuje. Cóż, być może to tłumaczy, dlaczego Nvidia przez około dwa lata udaje, że tej sprawy nie widzi.

Nvidia G-Sync i SLI razem obniżają wydajność w grach [4]

Nvidia G-Sync i SLI razem obniżają wydajność w grach [5]

Źródło: ExtremeTech, Reddit, GeForce.com
1
Zgłoś błąd
Liczba komentarzy: 64

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.