Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Test ASUS HD 7970 vs GTX 680 DirectCU II - Ostateczne starcie

Sebastian Oktaba | 10-02-2013 16:05 |

Nowy silnik ekranowy

Nowa architektura to nie jedyna nowość wprowadzona przez NVIDIA wraz z Keplerem, bowiem „Zieloni” podobnie jak konkurencja przygotowała szereg nowinek technologicznych. Na tle poprzednich GeForców (z wyłączeniem "eksperymentów" Galaxy MDM) najbardziej innowacyjną naszym zdaniem zmianą jest poprawiony silnik odpowiedzialny za obsługę monitorów. W końcu będziemy mogli pracować na więcej niż dwóch ekranach czy nareszcie zagrać w ulubione tytuły wykorzystując NVIDIA Surround jak i NVIDIA 3D Surround na trzech ekranach, a wszystko to dzięki jednej karcie graficznej. Limit ekranów obsługiwanych przez urządzenie jest odrobinę mniej imponujący niż AMD, ponieważ Kepler pozwala na pracę na "tylko" 4 ekranach. Nie oszukujmy się jednak: liczba gier, które bez problemów będą działać na maksymalnych detalach w maksymalnej dostępnej rozdzielczości przy pięciu i więcej wyświetlaczach na HD 7970, jest raczej niewielka, a będą to prostsze oraz mniej wymagające tytuły. W takim świetle 3 ekrany w Surround z jednym dodatkowym np. do wyświetlenia czatu czy poradnika na stronie internetowej jest przyzwoitą ilością, zwłaszcza ponad dwa dotychczas obsługiwane ekrany w GeForce.

Oczywiście na tym zmiany w silniku ekranowym się nie kończą. Mamy pełne wsparcie dla nowej-generacji ekranów 4k, HDMI wspiera 3GHz, no i mamy też DisplayPort którego raczej ciężko odnaleźć na poprzednikach. NVIDIA Surround pozwala na grę przy 3 ekranach podłączonych do dowolnych portów - nie wymaga więc jak AMD aktywnej przejściówki DP na inny standard, czy po prostu monitora z portem DP. Możemy bez problemu uruchomić nietypową rozdzielczość 5760x1080 na trzech ekranach 1920x1200, co na Eyefinity na beta sterownikach dostarczonych z kartami 7800 było niemożliwe. Ponadto na Surround pasek Windowsa domyślnie znajduję się na środkowym monitorze, a maksymalizacja aplikacji odbywa się w obrębie aktualnego monitora, a nie całego rozciągniętego wirtualnego pulpitu, w czym NVIDIA także spisuje się lepiej od AMD. Dodać należy obsługę standardu wielo-strumieniowego audio i otrzymamy pełen obraz nowego silnika ekranowego.

GPU Boost

Podczas tworzenia kart graficznych, a dokładniej ustalania ich TDP, poszczególne karty sprawdza się w ciężkich warunkach termicznych pod obciążeniem obszernego zestawu realnych aplikacji 3D. W takich warunkach dobiera się ostateczne taktowania i napięcia urządzeń, tym samym ustalając ich limit TDP. Problem leży w tym, że w typowych warunkach domowych takie ciężkie środowisko nie występuje i karty bardzo rzadko zbliżają się do limitu TDP marnując tym samym ukryte weń potencjalne moce. Z pomocą przychodzi GPU Boost - nowy „przeźroczysty” dla systemu i aplikacji algorytm sprzętowo-programowy działający w tle. Jego zadaniem jest monitorowanie temperatury i wykorzystania rdzenia, a przede wszystkim zużycia energii. Na podstawie tych informacji GPU Boost dostosowuje napięcia oraz taktowania rdzenia.


MSI Afterburner, domyślne taktowania karty, tuż po teście Crysis

Można żartować, że wprowadzenie GPU Boost przy jednoczesnym zlikwidowaniu oddzielnego dwukrotnie wyższego taktowania shaderów w stosunku do reszty rdzenia, wymusiło na NVIDII dodanie nowego "zastępczego" taktowania. Jest nim tak zwany Boost Clock podawany chociażby przez narzędzie GPU-Z. Domyślne taktowanie rdzenia (Base Clock) stanowi bazowe taktowanie karty, poniżej tego zegara karta nie powinna zejść w typowym wykorzystaniu (w GTX 680 to 1006 MHz). Wyjątkiem są aplikacje zwane wirusami konsumpcyjnymi, a takim programem jest chociażby Furmark potrafiący wycisnąć z kart więcej niż przewidują limity TDP. Natomiast nowe "boost" taktowanie przedstawiać ma średnie taktowanie z jaką karta będzie aktualnie pracować podczas obciążenia. Zegar ten dla GTX 680 to 1058MHz i przy większości gier właśnie takie taktowanie powinno być brane pod uwagę przy porównywaniu kart zegar w zegar.

Adaptacyjna synchronizacja - Adaptive Vsync

Podczas grania w gry nasza karta stara się domyślnie generować jak najwięcej klatek na sekundę. Następnie wysyła te klatki do monitora, a ten je wyświetla. Pojawia się jednak problem - monitory odświeżają obraz ze stałą predefiniowaną częstotliwością. Jeśli otrzymają dwie różne klatki w czasie odświeżania to naszym oczom ukażą się części obu tych klatek. Dokładniej górna część starszej i dolna część nowszej klatki. Powoduje to bardzo nieprzyjemny i bardzo dobrze widoczny efekt na ekranie przy szybko zmienianych scenach, zwłaszcza przy np. obracaniu widoku/kamery w poziomie. Nazywa się go Tearingiem (Poszarpaniem) - rozwiązaniem tej dolegliwości jest synchronizacja pionowa. Powoduje ona, że karta z wygenerowaniem nowej klatki czeka na monitor, a dokładniej jego proces odświeżania.

Typowy monitor LCD posiada odświeżanie pionowe z częstotliwością 60Hz, a jeśli nasza karta graficzna jest w stanie renderować ponad 60 klatek na sekundę, to problemu nie ma - karta ogranicza generowany FPS do 60 i synchronicznie z odświeżaniem ekranu wypuszcza nowe klatki. Otrzymujemy płynny pozbawiony Tearingu obraz. Problemy zaczynają się jeśli karta nie jest w stanie generować tylu klatek. W takiej sytuacji, mechanizm synchronizacji obniży limit do jednego z dzielników maksymalnej częstotliwości odświeżania, czyli w przypadku 60Hz będzie dt 30, 20 czy np. 15Hz. Każde przejście na niższą częstotliwość jak i powrót mogą i najczęściej spowodują pojawienie się Stutteringu (Przycięć).

Po raz kolejny z pomocą przychodzi nam nowe rozwiązanie NVIDII - adaptacyjna synchronizacja pionowa. W przypadku gdy nasze GPU nie jest w stanie renderować wystarczająco dużej liczby klatek, aby synchronizacja działała na częstotliwości odświeżania monitora, zamiast przechodzić do dzielników zostaje po prostu wyłączona. Takie podejście do sprawy likwiduje poszarpany obraz związany z wyższym niż odświeżanie FPS, a także eliminuje przycięcia związane z przechodzeniem na niższe poziomy synchronizacji. Nie jest to jednak rozwiązanie idealne, ponieważ efekt poszarpania istnieje także w sytuacji, gdy liczba generowanych klatek jest mniejsza od częstotliwości odświeżania. Aczkolwiek efekt ten jest znacznie mniej widoczny niż oba likwidowane przez nowe rozwiązanie. Adaptive VSync działa programowo wchodząc wraz z nowymi sterownikami R300 i będzie obsługiwane również przez starsze karty.

FXAA w sterownikach

Wraz z nowymi sterownikami R300 towarzyszącymi premierze GeForce GTX 680, NVIDIA wprowadza także możliwość wymuszani FXAA poprzez panel kontrolny sterowników. Dotychczas jedyną możliwością korzystania z tego trybu wygładzania krawędzi, była aktywacja we wspierającej go grze, albo wykorzystanie specjalnych programów wstrzykujących stosowny kod (np. FXAA Injector). Popularność FXAA jako podstawowego trybu AA wśród deweloperów stale rośnie, ponieważ FXAA zapewnia nawet dwukrotnie więcej FPS niż 4xMSAA, oferując zbliżony wizualnie obraz. W przeciwieństwie do MSAA, FXAA jest jednak wykorzystane na etapie post procesingu razem z blurem czy bloomem.

TXAA - nowe metoda AA

Wraz z Keplerem debiutuje też nowy tryb wygładzania krawędzi. TXAA ma wykorzystywać znacznie większą wydajność nowych GeForców w dziedzinie obróbki tekstur FP16. Nowe wygładzanie będzie mieszanką sprzętowego AA, podejścia do AA w stylu filmów CG, oraz w przypadku trybu 2xTXAA dodatkowego opcjonalnego elementu czasowego. Znaczna część algorytmu TXAA to wysokiej jakości filtr starannie zaprojektowany z myślą o współpracy z post procesowym potokiem zgodnym z HDR. Od strony jakościowej i wykorzystania zasobów GPU, TXAA ma oferować jakość porównywalną z 8xMSAA obciążając kartę jak 2xMSAA. Wyższy tryb 2xTXAA będzie obciążać system jak 4xMSAA oferując jednak lepszą od 8xMSAA jakość obrazu. TXAA ma być wspierane przed nadchodzące tytuły takie jak MechWarrior Online, Borderlands 2, czy silnik Unreal 4.

NVENC - Sprzętowy enkoder H.264

Ostatnią z nowości wprowadzaną w samym rdzeniu Keplera jest sprzętowy enkoder H.264. W poprzednich generacjach kart NVIDII kodowaniem i dekodowaniem materiału wideo zajmował się programowy enkoder wykorzystujący do pracy procesory CUDA. O ile rozwiązanie takie jest znacząco szybsze niż wykorzystywanie do obliczeń CPU, to posiada ono istotną wadę - spore zużycie energii. Tak jak cała architektura Keplera, tak i NVENC podyktowany jest względami wydajności z jednego wata. Nowy sprzętowy enkoder jest blisko 4-krotnie szybszy od starszych bazujących na CUDA programowych rozwiązań, jednocześnie konsumując znacznie mniej prądu.

Enkoder NVENC to:

  • Nawet 8-krotnie szybsze od czasu rzeczywistego kodowanie materiału full HD (1080p). Przykładowo: kodowanie 16 minutowego 30 FPS klipu 1080p z wykorzystaniem wysokiego profilu wydajności zajmie w przybliżeniu 2 minuty.
  • Wsparcie dla profili H.264: bazowego, głównego i wysokiego, oraz poziomu 4.1 (Standard Blu-ray)
  • Wsparcie dla MVC (Multiview Video Coding) - kodowania stereoskopowego będącego rozszerzeniem H.264 wykorzystywanym przy 3D Blu-ray.
  • Wsparcie dla kodowania w rozdzielczości aż do 4096x4096.

Warto wspomnieć, że NVENC może być wykorzystywany równolegle do klasycznego programowego enkodera. Pozwala to na kodowanie dwóch materiałów na raz, jednakże algorytmy wstępnego przetwarzania NVENC mogą wymagać użycia rdzeni CUDA tym samym ograniczając ewentualnie wydajność programowego CUDA kodera.

Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Sebastian Oktaba
Liczba komentarzy: 48

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.