AMD ogłasza architekturę hUMA - Jednolita pamięć CPU i GPU
W czerwcu ubiegłego roku poinformowaliśmy Was o powstaniu nowej organizacji HSA (Heterogeneous Architecture System), która została oficjalnie ogłoszona podczas konferencji AMD Fusion Developer Summit. Przedstawiciele firm AMD, ARM, Imagination Technologies, MediaTek Inc. oraz Texas Instruments zapewnili nas, że będziemy mieli do czynienia z organizacją non-profit skupioną wokół opracowania i promowania otwartej, zestandaryzowanej postawy wobec obliczeń heterogenicznych. Mówiąc prościej - HSA ma pozwolić na większą integrację CPU z GPU w celu zapewnienia jak najlepszej wydajności obliczeniowej przy jak najniższym poborze energii. Jednostki GPU oferują znacznie większe możliwości w operacjach zmiennoprzecinkowych niż CPU, więc warto skupić się na jak najlepszym wykorzystaniu wymienionych wcześniej elementów w jednym układzie.
Organizacja HSA (Heterogeneous Architecture System) dąży do zachowania harmonii, czyli odpowiedniej współpracy wszystkich elementów w celu osiągnięcia jak największej wydajności w obliczeniach. Według twórców HSA, najważniejsze jest inteligentne i natychmiastowe skierowanie danych operacji do odpowiedniego podzespołu, który będzie mógł obsłużyć zadanie bez najmniejszego problemu. Korzyści płynących z takiego rozwiązania jest wiele - podczas niedawnej konferencji zwracano uwagę na zoptymalizowany pobór mocy, zwiększenie mocy obliczeniowej pojedynczego układu oraz uproszczenie przekazywania danych. Nowością jest między innymi dostęp do pamięci CPU przez GPU oraz jednolita pamięć dla obydwu elementów. UMA (Uniform Memory Access) jest wykorzystywane w typowych procesorach CPU, gdzie wszystkie rdzenie korzystają z jednej pamięci. W przypadku jednostek APU mówimy już o NUMA (Non-Uniform Memory Access), gdyż w budowie układu możemy wyróżnić oddzielne pamięci dla CPU oraz GPU. HSA postanowiło powrócić do opisywanej wcześniej konfiguracji UMA w odmianie nazwanej jako hUMA (Heterogeneous Uniform Memory Access), dzięki czemu układu GPU oraz CPU będą korzystały z tej samej pamięci. Dzięki temu zmiany spowodowane pracą jednego elementu będą widziane przez drugi i na odwrót. Kolejną korzyścią jest dynamiczna alokacja pamięci dla CPU oraz GPU, która pozwala na dostosowanie rozmiaru przestrzeni zgodnie z potrzebami danego elementu. Organizacja HSA chwali się licznymi korzyściami takiego rozwiązania, a między innymi: ułatwieniem pracy dla programistów, łatwiejszym udostępnianiem danych oraz szybszym debugowaniem. Odbiorców tego typu rozwiązań może być wiele, zaś najlepszym przykładem mogą być konsole nowej generacji, serwery, urządzenia mobilne oraz desktopy.
Źródło: AMD
Powiązane publikacje

AMD Ryzen Threadripper (PRO) 9000WX - Kolejne poszlaki wskazują na zbliżającą się premierę procesorów HEDT Zen 5
13
Procesor AMD Ryzen 7 9800X3D do kupienia w najniższej cenie od premiery. Świetna jednostka do gier dostępna poniżej MSRP
91
Intel 18A przyciąga uwagę. NVIDIA i Broadcom testują nowy proces, otwierając drogę do potencjalnej współpracy
23
TSMC zapowiada SoW-X, czyli nową erę pakowania chipów dla AI i HPC. Masowa produkcja ruszy już w 2027 roku
7