Samsung stawia na pamięć operacyjną typu PIM, aby wyprzedzić rywali w wyścigu o rynek układów do sztucznej inteligencji
Na wydarzeniu Samsung AI Forum 2024 przedsiębiorstwo przedstawiło swoją strategię dotyczącą rozwoju w obszarze sztucznej inteligencji, skierowaną zarówno do globalnych ekspertów, jak i akcjonariuszy. Samsung zapowiedział, że dział odpowiedzialny za pamięci operacyjne przeznaczone do akceleratorów AI intensywnie pracuje nad rozwojem technologi PIM (Processing in Memory). Celem tej innowacji jest stworzenie konkurencyjnego rozwiązania dla szybkiej pamięci HBM.
Samsung intensywnie pracuje nad rozwojem technologi PIM (Processing in Memory). Celem tej innowacji jest stworzenie konkurencyjnego rozwiązania dla szybkiej pamięci HBM, co ma na celu przełamanie dominacji SK Hynix.
Samsung został skrytykowany przez pracowników za nieefektywne zarządzanie i skupienie się na krótkoterminowych celach
Samsung po raz pierwszy przedstawił pamięci PIM (Processing in Memory) w 2021 roku, lecz technologia ta nie zyskała wtedy dużego zainteresowania wśród największych producentów akceleratorów AI, takich jak NVIDIA. Pomimo to Samsung kontynuuje rozwój tej innowacji, dążąc do stworzenia konkurencyjnej alternatywy dla szeroko stosowanej pamięci HBM. Pamięć PIM wyróżnia się wbudowaną jednostką logiczną, która umożliwia wykonywanie prostych operacji matematycznych bezpośrednio w pamięci. Dzięki temu moduły PIM mogą osiągać imponującą wydajność, oferując nawet dwukrotnie szybsze przetwarzanie w porównaniu do HBM przy jednoczesnym zmniejszeniu zużycia energii średnio o 50%, wynikającym z mniejszej liczby transferów danych między chipem GPU a pamięcią operacyjną.
Samsung prezentuje pierwsze pamięci GDDR7 o pojemności 24 Gb. Produkcja masowa ma wystartować w 2025 roku
Podczas Samsung AI Forum 2024 firma podkreśliła bliską współpracę z AMD, któremu według nieoficjalnych doniesień dostarcza moduły HBM piątej generacji, czyli HBM3E. Partnerstwo to może sugerować, że AMD rozważa wykorzystanie pamięci PIM w nowych projektach akceleratorów AI, co mogłoby rozwiązać część problemów energetycznych tego typu układów. CEO AMD, Lisa Su, wspominała w maju 2024 roku o wyzwaniach związanych z poborem mocy chipów AI, spowodowanych przez intensywne transfery danych między jednostkami logiki a pamięcią operacyjną. PIM, dzięki możliwości przetwarzania danych bezpośrednio w pamięci, mogłoby znacząco obniżyć zużycie energii. Jeśli technologia PIM zyska akceptację wśród liderów branży sztucznej inteligencji, takich jak AMD, może na stałe znaleźć swoje miejsce w zaawansowanych akceleratorach AI, na co Samsung mocno liczy.