Czytelnicy PurePC testują kartę graficzną Intel ARC A770 Limited Edition - Jak działają nowe i stare gry? Czy jest już stabilnie?
- SPIS TREŚCI -
Test Intel ARCT A770 - Użytkownik Mariusz 1978
Kartę Intel ARC A770 chciałem sprawdzić wyłącznie z czystej ciekawości, bo posiadam GeForce RTX 3080, która do rozdzielczości 2560x1440 jeszcze spokojnie wystarcza. Reszta mojej konfiguracji wygląda następująco: Intel Core i7-10700, ASUS B560, 32 GB DDR4 3466 CL14 i wspomniane GPU od NVIDII. Jako pasjonat sprzętu jestem po prostu ciekaw jak największa firma od CPU poradziła sobie z GPU, a najlepsze testy to takie które samemu się wykona :) Tutaj muszę pochwalić redakcję za fajną inicjatywę, a Intela za odwagę żeby wysłać sprzęt w łapy losowych ludzi, którzy nie wiadomo co potrafią hehe. Wracając do tematu, to karta jest zapakowana w eleganckie pudełko, wygląda naprawdę przyjemne dla oczu i sprawia wrażenie bardzo solidnie wykonanej. Nie jest to poziom Founders Eidtion NVIDII, ale półka cenowa i wydajnościowa też zupełnie inna. Swoje testy przeprowadziłem w 2560x1440, zahaczyłem także o śledzenie promieni, więc musiałem też posiłkować się upscalingiem XeSS. O to chyba chodziło, aby sprawdzić ARC A770 w warunkach bojowych bez taryfy ulgowej.
Najpierw pozycja obowiązkowa - Cyberpunk 2077. Tutaj w czystym 2560x1440 z profilem detali Ultra karta poradziła sobie nadspodziewanie dobrze nie spadając poniżej 40-45 klatek przy jeździe po mieście. Włączenie Intel XeSS Quality dodaje 10 klatek, więc przyrost raczej bez szału, ale jakość obrazu niemal jak natywna. Włączenie ray traicngu w Cyberpunk 2077 nawet przy XeSS Quality to zaledwie 30 klatek na sekundę. W 1920x1080 było na takich ustawieniach 45 klatek, więc jeżeli ktoś ma monitorek Full HD to całkiem spoko wynik. W Hogwart Legacy można spokojnie pograć na Intel ARC A770 bo podobnie jak w CP2077 będzie zwykle 45-50 klatek, nawet około 60 w miastach (ale tutaj więcej do gadania ma CPU). Śledzenia promieni lepiej nie włączać, bo zjazd wydajności jest ogromny i zamiast 45-50 klatek miałem 25 klatek (2560x1440). Odpalenie XeSS Quality daje sporo, bo mamy wtedy 35 klatek, a bez ray tracingu prawie 60 klatek w WHQD. Obraz na XeSS wyglądał OK, ciężko powiedzieć czy Xess czy DLSS jest lepsze.
Sporo gram ostatnio w Diablo IV, więc Intel ARC A770 sprawdziłem też w najnowszej grze Blizzarda. Wydajność 2560x1440 przy maksymalnych detalach pozytywnie zaskakuje, bo w takich lokacjach cięższych, to przeważnie 89-90 klatek, więc poziom zupełnie w porządku. Nie trzeba nawet włączać XeSS jednak w razie potrzeby można w okolice 110 klatek podnieść wydajność. Intel ARC A770 ma 16 GB pamięci graficznej, co skłoniło mnie do sprawdzenia jak działa The Last of Us mający ogromny apetyt na VRAM. Zabawne, ale gra w menu w zakładce Tryb Skalowania najpierw pokazywała zamiast poprawnych napisów tylko UNKNOWN STRING!!! (pisownia oryginalna), jednak nie wiem czy to wina Intela czy developera. Po przywróceniu wartości domyślnych ten babol zniknął. Sama gra działa bez zarzutów, alokuje w leśnej lokacji przy wejściu do miasteczka prawie 15 GB VRAM (!), ale wydajność raczej słabo wypada bo miałem zaledwie 35 klatek, podczas gdy GeForce RTX 3080 wyciąga tutaj około 60. Rzadziej zdarzały się jednak dropy, co widać w odczycie 1% LOW, więc 16 GB VRAM na coś się przydaje.
Dla szerszej perspektywy ograłem też Assassin's Creed: Valhalla, Callisto Protocol, Wiedźmin 3, a tutaj było wszystko zgodnie z tym co można wyczytać w necie - około 60 klatek w WHQD na najwyższych albo prawie najwyższych detalach bez uspcalingu. Metro Exodus Enhanced Edition i Red Dead Redemption 2 było niestety w 2560x1440 poza zasięgiem Intel ARC A770, chyba że bardzo mocno obniży się detale. OK, wiem że to nie jest karta stricte do 2560x1440, ale takiej rozdzielczości używam i zdaję po prostu raport z pola bitwy. Do GeForce RTX 3080 go nawet nie porównuję, bo byłoby to lekko dziwne zestawienie. Jeśli jesteście ciekawi czy były jakieś problemy, to odpowiem zgodnie z prawdą - były, ale niewielkie. Dosłownie 2 razy wyleciałem do pulpitu, jednak nawet na NVIDII to dziadowskie The Last of Us potrafi się wysypać. No powiem szczerze myślałem, że będzie gorzej i nastawiałem raczej na walkę, a problemów miałem mniej niż z kapryśnym Radeonem RX 6700 XT mojego kumpla :)
Kończąc powoli bo chyba już przekroczyłem limit znaków, powiem tylko kilka słów o temperaturach i głośności. Tutaj Intel przynajmniej w swoich referentach musi troszeczkę popracować. Temperatury ponad 70 stopni to może nie problem w upalne dni, a nawet całkiem dobry wynik, ale chłodzenie jest już słyszalne z obudowy. Przydałaby się także opcja regulacji podświetlenia z poziomu aplikacji bez podłączania dodatkowych kabelków, bo w 2023 roku jest to absolutnie nieodpuszczalne. Dobra, to byłoby na tyle, mam nadzieję że moje trzy gorsze komuś się przydadzą. Robota nie jest łatwa więc pozdrawiam całą redakcję i życzę wytrwałości. PS: Pozdrawiam Martynę :)
- SPIS TREŚCI -
Powiązane publikacje

Test karty graficznej MSI GeForce RTX 5060 Ti Gaming 16 GB - Więcej pamięci graficznej, jednak czy proporcjonalnie do wydajności?
230
Test Assassin's Creed Shadows - PC kontra PlayStation 5. Test technik NVIDIA DLSS 4, AMD FSR i Intel XeSS, skalowanie wydajności
122
Test wydajności Assassin's Creed Shadows PC - Wymagania sprzętowe to większy problem, niż czarnoskóry samuraj
165
Test wydajności GTA V Enhanced - Ray tracing podnosi wymagania sprzętowe do poziomu GTA VI. Wielka aktualizacja na 10 rocznicę
178