AMD i Sony prezentują trzy nowe rozwiązania, które trafią do przyszłych układów SoC dla konsol i kart graficznych Radeon
AMD i Sony od dawna współpracują nie tylko przy tworzeniu układów SoC dla konsol PlayStation, ale także w warstwie programowej, co zaowocowało m.in. technologią PSR. Teraz obie firmy opublikowały wspólny materiał prezentujący trzy nowe rozwiązania oraz zmiany w podejściu do architektury GPU. Radiance Cores, Neural Arrays i Universal Compression to technologie, które w dłuższej perspektywie mają odegrać istotną rolę na rynku gier wideo.
AMD i Sony wspólnie zaprezentowały technologie Radiance Cores, Neural Arrays i Universal Compression dla architektury graficznej RDNA5/UDNA, które rozszerzą możliwości wykorzystania AI w grach wideo.
AMD FSR 3.1 kontra FSR 4 na karcie graficznej AMD Radeon RX 7900 XT. Testy wydajności i porównanie jakości obrazu
AMD, które prezentował Jack Huynh - SVP i GM grupy Computing and Graphics, wraz z Sony, reprezentowanym przez Marka Cerny’ego - głównego architekta PS5 i PS5 Pro, przedstawiło trzy kluczowe technologie dla nadchodzącej architektury RDNA 5 / UDNA. Najważniejszym elementem są całkowicie nowe rdzenie Radiance Cores, wbudowane w strukturę przyszłych GPU. Zostały one zaprojektowane do obsługi ray tracingu i path tracingu w czasie rzeczywistym, oferując wyższą wydajność niż obecne rozwiązania w RDNA 4. Rdzenie te przejmują proces śledzenia promieni, odciążając jednostki cieniujące, co sprawia, że pipeline renderowania staje się czystszy, szybszy i znacznie bardziej efektywny. Dotychczas jednostki cieniujące musiały równocześnie wyznaczać przebieg promieni w scenie oraz nakładać tekstury i oświetlenie. Mark Cerny podkreślił, że przeniesienie tych procesów do dedykowanych rdzeni zapewnia zauważalny wzrost szybkości oraz elastyczności w przetwarzaniu geometrii. Dzięki temu AMD wprowadza wydajniejsze dedykowane jednostki dla RT, podobnie jak ma to miejsce w układach NVIDIA.
AMD UDNA - producent szykuje cztery wersje chipów. Topowy next-genowy układ graficzny może otrzymać 96 jednostek CU
AMD zdecydowało się również wprowadzić macierze / sieci neuronowe (Neural Arrays). Technologia ta polega na łączeniu jednostek CU (Compute Units) w grupy, które mogą wspólnie przetwarzać dane jak jeden „silnik AI”, zachowując się w praktyce jak jeden większy rdzeń. Dzięki temu możliwe będzie bardziej zaawansowane renderowanie neuronowe (np. generowanie klatek), szybszy upscaling (FSR i PSR), odszumianie oraz wprowadzanie nowych funkcji opartych na uczeniu maszynowym bez dużego narzutu obliczeniowego. Efekt ten osiągany jest także dzięki zmniejszeniu narzutu komunikacyjnego, a co w konsekwencji zwiększa skalowalność GPU.
AMD i OpenAI podpisują strategiczne partnerstwo na dostawę układów Instinct MI450. Akcje AMD mocno wzrosły
Dodatkowo wprowadzony zostanie mechanizm Universal Compression, którego zadaniem jest analiza i kompresja wszystkich danych trafiających do GPU oraz wychodzących z niego. Rozwiązanie to znacząco zmniejszy obciążenie pamięci VRAM i zwiększy wydajność, przyspieszając ładowanie tekstur i modeli oraz pozwalając GPU działać sprawniej, bez konieczności zwiększania przepustowości podsystemu pamięci. Za realizację mechanizmu odpowiadać ma dedykowany blok sprzętowy w GPU. Połączenie tej technologii z Neural Arrays umożliwi wykorzystanie większych i wydajniejszych modeli AI, co w przyszłości przełoży się na wyższą jakość i wydajność takich technik jak FSR czy generowanie klatek. Najprawdopodobniej rozwiązania te wejdą w życie w 2026 / 2027 roku.
Powiązane publikacje

Intel Xe3 - Analiza nowej architektury dla układów graficznych w Intel Panther Lake. Zapowiedź XeSS Multi Frame Generation
16
Lustereczko, powiedz przecie, kto ma najfajniejsze GPU na świecie? Tak, to akcesorium istnieje naprawdę...
43
Chińczycy sprzedają GeForce RTX 4080 SUPER mające 32 GB pamięci GDDR6X. To ciekawa alternatywa dla profesjonalnych układów
22
GeForce RTX 5050 po modyfikacji chłodzenia i BIOS ustanawia rekordy w 3DMark Time Spy, Port Royal i Steel Nomad
65