Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Rozdzielczość 4K jest coraz bliżej - tylko czy jesteśmy już gotowi?

Sebastian Oktaba | 08-05-2018 11:00 |

Rozdzielczość 4K jest coraz bliżej - tylko czy jesteśmy już gotowi?Spoglądając na pudełka niektórych podzespołów komputerowych, konsol, smarfonów, monitorów i telewizorów odnoszę wrażenie, że rozdzielczość 4K jako standard została nam w pewnym momencie wręcz narzucona. Producenci wszędzie wypisują „4K Ready” albo „UHD” chociaż pod powyższym sloganem kryje się przynajmniej kilka zagadnień. Dysponować odbiornikiem zdolnym wyświetlić obraz w rozdzielczość 3840x2160, a pecetem gwarantującym satysfakcjonującą płynność przy godnych ustawieniach, to przecież zupełnie inna historia. Ponieważ szum informacyjny powstały wokół 4K jest naprawdę przeogromny, warto naświetlić powyższą kwestię mniej zorientowanym czytelnikom, a jednocześnie wyjaśnić dlaczego w tym konkretnym przypadku więcej znaczy lepiej.

Jakby nie patrzeć - wiodącą i najbardziej „4K Ready” platformą pozostają komputery osobiste, zwłaszcza jeśli spojrzymy na całokształt.

Rozdzielczość 4K nadchodzi - tylko czy jesteśmy już gotowi? [6]

Wbrew pozorom monitory i telewizory 4K cenami nie odstraszają, szczególnie jeśli mówimy o modelach ze średniej półki, dlatego ich popularność systematycznie wzrasta. W zasadzie można zaryzykować stwierdzenie, że kupując takie urządzenie do salonu lub komputera, najrozsądniej będzie wybrać właśnie coś „4K Ready”, ponieważ monitory i telewizory wymienia się stosunkowo rzadko. W przypadku TV sprawa od strony czysto użytkowej jest prostsza, bo nawet jeżeli nałogowo nie oglądamy filmów Blu-ray, wyższa rozdzielczość przy konsumpcji „zwykłych” treści nie będzie w niczym przeszkadzać. Trochę inaczej to wygląda jeśli jesteśmy pecetowymi graczami, wyznawcami religii PCMR nastawionymi na maksymalizację efektów, ponieważ jakość obrazu znajduje tutaj odzwierciedlenie w wymaganiach sprzętowych. Ważnym targetem przy popularyzacji 4K okazują się również użytkownicy konsol obecnej generacji (PlayStation 4 PRO / XBOX One), które podniosły poprzeczkę wydajnościową, aczkolwiek w wielu produkcjach obraz jest po prostu przeskalowywany, generowany na zasadzie szachownicy lub dynamicznej rozdzielczości, nie będąc natywnym 4K. Jakby nie patrzeć - wiodącą i najbardziej „4K Ready” platformą pozostają komputery osobiste, zwłaszcza jeśli spojrzymy na całokształt.

Rozdzielczość 4K nadchodzi - tylko czy jesteśmy już gotowi? [3]

Różnica między rozdzielczością 4K, Full HD i HD (źródło: Wikipedia)

Zacznijmy jednak od podstaw - jak się okazuje, 4K UHD niejedno ma imię, podobnie jak faktyczną rozdzielczość uzależnioną od formatu obrazu. Przykładowo - najpopularniejsze 3840x2160 dostępne w telewizorach oraz monitorach to 16:9, uzupełniane przez szereg standardów zarezerwowanych dla filmów cyfrowych od 32:1 do 39:1, jak również innych niszowych rozdzielczości m.in.: 3840x1600 (24:10) czy 4096x2160 (4K DCI). Summa summarum, wyświetlaczy 4K UHD dostępnych na rynku jest obecnie kilkukrotnie więcej, niż pozostałych o zbliżonych parametrach razem wziętych, dlatego swoją uwagę skupię wyłącznie na wariancie 3840x2160. A mówimy tutaj o rozdzielczości ponad czterokrotnie większej od 1920x1080 (Full HD), czyli przeszło ośmiu milionach pikseli, co samo w sobie powinno dawać do zrozumienia, że obraz będzie zacznie bardziej szczegółowy. Właśnie dzięki takiemu prostemu zabiegowi, można otrzymać sceny o zdecydowanie lepszej jakości, co widoczne jest szczególnie w filmach i grach komputerowych. Poniżej znajdziecie skrajne porównanie, dotyczące HD oraz 4K, które wprost pokazuje co daje „wincyj pikseli” w praktyce. A sami spójrzcie, że daje naprawdę sporo:

Rozdzielczość 4K nadchodzi - tylko czy jesteśmy już gotowi? [2]

Czy te oczy (po prawej) mogą kłamać? (źródło: NVIDIA)

Przykład wycinka obrazu z Batman: Arkham Origins nie pozostawia chyba większych wątpliwości, że dodatkowe piksele znajdują swoje zastosowanie, prawda? Zmiany między rozdzielczością Full HD oraz 4K trochę trudniej zauważyć, aczkolwiek nie sposób przeoczyć kiedy dokładnie sprawdzimy obydwa screeny pochodzące z Wiedźmin 3: Dziki Gon. Widoczne jest wyraźne zmniejszenie poszarpanych krawędzi (schodkowania), ostrzejsze obiekty na dalszym planie, cienie i podłoże - przyjrzycie się także teksturom liści, tafli wody i kamieniom. Dzięki wyższej rozdzielczości uzyskujemy (co chyba oczywiste) ogólnie ostrzejszy obraz bez używania anty-aliasingu, który nie zawsze należycie spełniał swoje zadanie, a dodatkowo często nieproporcjonalnie do efektów negatywnie odbijał na wydajności. Reasumując - polecam ściągnąć obydwa zrzuty ekranów i porównać bezpośrednio 1920x1080 do 3840x2160. Chociaż dla niektórych różnice mogą wydawać się nieduże, trzeba pamiętać iż ewolucja grafiki trójwymiarowej od daaawna nie następuje w formie spektakularnych skoków, lecz małych kroczków, które razem zsumowane owocują poprawą jej jakości. A tutaj nie majstrujemy przy efektach, suwakach detali czy innych ustawieniach, zmieniamy tylko i wyłącznie wyświetlacz.

Rozdzielczość 4K nadchodzi - tylko czy jesteśmy już gotowi? [nc1]

Polecam ściągnąć obydwa zrzuty ekranów i porównać bezpośrednio 1920x1080 do 3840x2160 na dysku. Różnice widać gołym okiem.

Rozdzielczość 4K nadchodzi - tylko czy jesteśmy już gotowi? [nc2]

Monitorów 4K UHD naliczyłem w sklepach ponad 130 modeli, niemniej rynek ten bardzo szybko się rozwija, a niebawem dostanie solidny zastrzyk nowości. W ciągu kilku najbliższych miesięcy powinny pojawić się urządzenia z matrycami IPS i odświeżaniem 120/144 Hz, doprawione HDR-em, które poważnie namieszają w głowach oraz portfelach entuzjastów. Póki co, topowymi rozwiązaniami są gamingowe modele, jak używany w redakcji Acer Predator XB271HKbmiprz (IPS 60 Hz), niemniej dzięki modułowi G-Sync odpowiedzialnemu za synchronizację obrazu, a zarazem redukującego wiele negatywnych zjawisk, granie na takim wyświetlaczu jest bardzo komfortowe. G-Sync redukuje bowiem tearing (rwanie), stuttering (przycięcia) czy input lag (opóźnienia), które są niesamowicie irytujące podczas grania. W odróżnieniu od większości produktów obsługujących AMD FreeSync, sprzętowy skaler zastosowany w monitorach z G-Sync zapewnia szerszy zakres wspieranych częstotliwości (np.: 24-60 Hz), toteż ogólna płynność obrazu jest przeważnie lepsza. Jakieś wady tego rozwiązania względem konkurencji? Cóż - monitory z G-Sync są droższe, wybór urządzeń jest mniejszy, a dodatkowo wymagane jest posiadanie w komputerze karty graficznej GeForce obsługującej tę technologię. Nasz redakcyjny Acer Predator XB271HKbmiprz kosztuje w sklepie x-kom 2899 złotych, więc to sprzęt z wyższej półki, a wyczekiwane 120/144 Hz modele z HDR-em tańsze raczej nie będą...

Rozdzielczość 4K nadchodzi - tylko czy jesteśmy już gotowi? [5]

Używany w redakcji Acer Predator XB271HKbmiprz (IPS 60 Hz) z modułem G-Sync

No dobra, pisałem o technologii G-Sync oraz pokrewnych, ale tutaj przydałoby się pewnie jakieś szersze wyjaśnienie, jak to działa. Otóż, tradycyjna synchronizacja pionowa spisywałaby się świetnie, gdyby karta graficzna renderowała stabilne 60 klatek na sekundę, niemniej w czasie dynamicznej rozgrywki ciągle doświadczamy skoków płynności. Monitor odświeża obrazy z ustawioną na sztywno częstotliwością, a ponieważ jest urządzeniem niezależnym, karta graficzna dotychczas nie miała ostatecznego głosu w całym procesie, chociaż to właśnie ona odpowiadając za renderowanie klatek powinna sprawować kontrolę nad momentem wyświetlenia obrazu. Przewaga G-Sync nad chociażby Adaptive V-Sync jest ogromna, bowiem wcześniejsza metoda eliminowała zacinanie się obrazu podczas korzystania z V-Sync, jednak problem z opóźnieniem w jego wyświetlaniu wciąż pozostawał (GPU opóźniało generowanie kolejnych klatek do czasu rozpoczęcia nowego cyklu odświeżania) - teraz po wszystkich tych cholerstwach pozostały tylko złe wspomnienia. Zyskujemy bardzo płynny obraz niezależnie czy karta graficzna generuje 30, 60, 90 czy 144 klatki na sekundę, a wartości zmieniają się dynamicznie w trakcie rozgrywki.

Rozdzielczość 4K nadchodzi - tylko czy jesteśmy już gotowi? [4]

Tak działa G-Sync, dzięki czemu obraz jest płynniejszy 

NVIDIA to zresztą jedna z firm najaktywniej propagująca wdrażanie 4K, która na początku bieżącego roku zapowiedziała także wprowadzenie BFGD (Big Format Gaming Displays). Co to właściwie jest? Swego rodzaju połączenie najlepszych cech telewizorów i gamingowych monitorów. Wyobraźcie sobie 65 calowy wyświetlacz z technologią HDR, obsługujący G-Sync oraz zapewniający 120 Hz odświeżanie, który posiada na pokładzie wbudowane NVIDIA SHIELD, czyli osobny mini-komputer służący między innymi do strumieniowania gier bezpośrednio z serwerów NVIDII. Wymaga to wprawdzie mocnego łącza internetowego i wykupienia abonamentu, aczkolwiek zdejmuje konieczność posiadania własnego peceta o nielichej konfiguracji, który sprostałby rozdzielczości 4K. Czy wysokiej klasy monitory o gabarytach dotychczas zarezerwowanych dla telewizorów, które graczom mają zapewnić wrażenia jakie towarzyszą użytkownikom konsol się przyjmą, to zweryfikują sami klienci, natomiast idea wydaje się naprawdę ciekawa i pewnie przyszłość grania na blaszakach tak właśnie będzie wyglądać. Oczywiście, NVIDIA nie zamierza sama produkować monitorów zlecając to swoim najbliższym partnerom, wśród których znajdują się między innymi Acer, ASUS i HP.

Najważniejsze zostawiam na koniec - mamy wszak dziesiątki monitorów oraz telewizorów 4K, spektrum produktów jest ogromne, począwszy od stosunkowo tanich, skończywszy na pieruńsko drogich, niemniej kluczem do popularyzacji wyższych rozdzielczości na pecetach jest wydajność kart graficznych. Ponieważ, bądźmy brutalnie szczerzy, rynkiem high-endowych kart graficznych niepodzielnie rządzi NVIDIA, animacja rynku 4K słusznie traktowanego jako motor napędowy sprzedaży obecnych i przyszłych generacji GPU, wydaje się najbardziej oczywistym kierunkiem w jakim podążać będzie firma. Skoro Zieloni tak bardzo się tutaj angażują, prawdopodobnie kolejna seria GTX-ów umożliwi całkiem komfortowe granie w 3840x2160 nawet na modelach ze średniego segmentu. GeForce GTX 1080 pozwala już zasmakować 3840x2160 przy niezłej płynności (plus ewentualnej redukcji kilku detali), GeForce GTX 1080 Ti rozkładają tylko optymalizacyjne porażki, niemniej próg wejścia wciąż okazuje się stosunkowo wysoki. Jego obniżenie będzie długo oczekiwanym bodźcem, który uczyni granie na pecetach w natywnym 4K czymś zupełnie normalnym, dostępnym dla prawie każdego. Nadchodzące zmiany można wyczuć w powietrzu :) Zresztą, gdzieś pod koniec wakacji wszystko stanie się jasne.

Kluczem do popularyzacji wyższych rozdzielczości na pecetach jest wydajność kart graficznych. Tutaj wiele zależy od tego, co pokażą kolejne generacje.

Pozostając w temacie migracji do rozdzielczości 4K, której sam zamierzam się poddać, wymieniając prywatny wysłużony monitor Full HD, postanowiłem także przyjrzeć się starszym grom pod kątem wymagań sprzętowych. Zamierzam temu zagadnieniu poświęcić nawet osobny wpis wzbogacony kilkoma wykresami. Optymistycznie zakładam, że Skyrim, Far Cry 3, DOOM, Tomb Raider, GTA V, Fallout: New Vegas oraz wiele innych świetnych tytułów, powinno być grywalnych w rozdzielczości 3840x2160 na GeForce GTX 1060, może nawet czymś słabszym... Warto byłoby to chyba sprawdzić, wszak nie wszyscy dysponują GeForce GTX 1080 Ti, podobnie jak nie wszyscy grają wyłącznie w nowości. Dajcie znać czy takie luźniejsze pomiary, oderwane od typowych procedur testowych was interesują, bo niewykluczone że zwykły felieton zamienimy w ciąg publikacji. Jakby nie patrzeć, temat 4K w kontekście gamingu będzie coraz ważniejszym elementem naszych publikacji, a ostatnia generacja konsol SONY i Microsoftu może przyspieszyć ewolucję pecetowych platform, co moim skromnym zdaniem wyjdzie wszystkim na zdrowie.

Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Sebastian Oktaba
Liczba komentarzy: 202

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.