Intel Multi-Adapter - wyższa wydajność dGPU dzięki wsparciu iGPU
Gdyby nie pandemia koronawirusa, bylibyśmy już po kolejnej edycji konferencji Game Developers Conference, na której prezentowane są często nowinki sprzętowe oraz rozwiązania, które w domyśle mają pomóc np. zwiększyć wydajność podzespołów. Intel również przymierzał się do szerszej prezentacji pewnej nowości, którą zamierza wprowadzić m.in. dzięki API DirectX 12. Chodzi o tzw. Multi-Adapter, którego założeniem jest zwiększenie mocy dedykowanej karty graficznej (NVIDIA, AMD, nadchodzące układy Intel Xe) poprzez przekierowanie mocy z nieużywanego w danym momencie zintegrowanego układu graficznego. Oczywiście rezultatem nie będzie zwiększona w istotny sposób moc dedykowanego układu graficznego, jednak w pewnych sytuacjach powinniśmy liczyć na lepszą wydajność.
Allen Hux z firmy Intel przygotował prezentację dotyczącą pomysłu ma przeniesienie niewykorzystanej mocy z iGPU do dedykowanych kart graficznych. Pomocne w tym celu mają być biblioteki DirectX 12.
Gdy debiutowało API DirectX 12, jedną z cech nowych bibliotek miało być łatwiejsze łączenie różnych kart graficznych w konfiguracje multi-GPU, niekoniecznie tego samego producenta. Ostatecznie ani NVIDIA ani AMD nie zwróciło szczególnej uwagi na pomysł i tego typu łączenie GPU zostało niemalże zapomniane. Do pomysłu stara się jednak wrócić firma Intel, która w ostatnim czasie zaprezentowała swój pomysł na niewielkie zwiększenie wydajności dedykowanych kart graficznych - mowa zarówno o układach NVIDII, AMD jak również nadchodzących kart Intel Xe. Intel proponuje pomysł otwartego podejścia z wieloma adapterami, w którym jednostki wykonawcze iGPU (jednostki EU) są wykorzystywane w celu przetwarzania różnych elementów o niskiej przepustowości zarówno na etapie renderowania, jak i przetwarzania końcowego, takich jak usuwanie niewidocznych powierzchni, sztuczna inteligencja czy fizyka gier. Metoda Intela wykorzystuje zasoby współużytkowane między adapterami, które znajdują się w pamięci systemowej (pamięci głównej) oraz obliczenia asynchroniczne bibliotek DirectX 12, które tworzą osobne kolejki przetwarzania dla renderowania i obliczeń.
Intel zamierza wykorzystać obecną w bibliotekach DirectX 12 funkcję pozwalającą na wykorzystanie mocy obliczeniowej zintegrowanego układu graficznego w celu zwiększenia wydajności dedykowanej karty graficznej. Większe różnice w wydajności powinny być zauważalne zwłaszcza w sektorze mobilnym, gdzie zbliża się premiera 11 generacji procesorów Intel Tiger Lake - wykorzystywane tam zintegrowane układy graficzne Gen.12 o mocy obliczeniowej powyżej 1 TFLOPS będą mogły mogły być używane do dynamicznego używania swych mocy w momencie, gdy iGPU nie jest wykorzystywane np. w grach (bowiem uaktywnia się wówczas dedykowana karta). Dzięki wykorzystaniu dodatkowej mocy obliczeniowej z iGPU, będzie możliwość odciążenia dedykowanej karty graficznej. Intel sugeruje, że największe wzrosty wydajności mogą być odczuwalne właśnie w przypadku notebooków, które mają bardziej restrykcyjne wymagania dotyczące zasilania oraz power limitów. Niestety nie wiemy jeszcze kiedy rozwiązanie Intela zostanie wdrożone - prawdopodobnie jednak nastąpi to bliżej premiery pierwszych dedykowanych kart Xe, by móc od razu promować rozwiązanie w całości na swojej platformie (CPU Intela oraz GPU Intela).
Powiązane publikacje

Karty graficzne NVIDIA GeForce RTX 5000 Founders Edition nadal są produkowane. Producent zaprzecza niedawnym plotkom
14
Karty Intel Arc Pro B50 z architekturą Xe2 i 16 GB pamięci GDDR6 za 349 dolarów sprzedają się jak świeże bułeczki
28
NVIDIA GeForce NOW - rozpoczęto ulepszanie serwerów, aby zaoferować użytkownikom wydajność klasy GeForce RTX 5080
44
Wymagania sprzętowe Borderlands 4 PC. Kolejna gra na Unreal Engine 5 ze wsparciem dla DLSS, FSR, XeSS i TSR
34