Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国
 

Samsung stawia na pamięć operacyjną typu PIM, aby wyprzedzić rywali w wyścigu o rynek układów do sztucznej inteligencji

Mateusz Szlęzak | 07-11-2024 12:30 |

Samsung stawia na pamięć operacyjną typu PIM, aby wyprzedzić rywali w wyścigu o rynek układów do sztucznej inteligencjiNa wydarzeniu Samsung AI Forum 2024 przedsiębiorstwo przedstawiło swoją strategię dotyczącą rozwoju w obszarze sztucznej inteligencji, skierowaną zarówno do globalnych ekspertów, jak i akcjonariuszy. Samsung zapowiedział, że dział odpowiedzialny za pamięci operacyjne przeznaczone do akceleratorów AI intensywnie pracuje nad rozwojem technologi PIM (Processing in Memory). Celem tej innowacji jest stworzenie konkurencyjnego rozwiązania dla szybkiej pamięci HBM.

Samsung intensywnie pracuje nad rozwojem technologi PIM (Processing in Memory). Celem tej innowacji jest stworzenie konkurencyjnego rozwiązania dla szybkiej pamięci HBM, co ma na celu przełamanie dominacji SK Hynix.

Samsung stawia na pamięć operacyjną typu PIM, aby wyprzedzić rywali w wyścigu o rynek układów do sztucznej inteligencji [1]

Samsung został skrytykowany przez pracowników za nieefektywne zarządzanie i skupienie się na krótkoterminowych celach

Samsung po raz pierwszy przedstawił pamięci PIM (Processing in Memory) w 2021 roku, lecz technologia ta nie zyskała wtedy dużego zainteresowania wśród największych producentów akceleratorów AI, takich jak NVIDIA. Pomimo to Samsung kontynuuje rozwój tej innowacji, dążąc do stworzenia konkurencyjnej alternatywy dla szeroko stosowanej pamięci HBM. Pamięć PIM wyróżnia się wbudowaną jednostką logiczną, która umożliwia wykonywanie prostych operacji matematycznych bezpośrednio w pamięci. Dzięki temu moduły PIM mogą osiągać imponującą wydajność, oferując nawet dwukrotnie szybsze przetwarzanie w porównaniu do HBM przy jednoczesnym zmniejszeniu zużycia energii średnio o 50%, wynikającym z mniejszej liczby transferów danych między chipem GPU a pamięcią operacyjną. Samsung stawia na pamięć operacyjną typu PIM, aby wyprzedzić rywali w wyścigu o rynek układów do sztucznej inteligencji [2]

Samsung prezentuje pierwsze pamięci GDDR7 o pojemności 24 Gb. Produkcja masowa ma wystartować w 2025 roku

Podczas Samsung AI Forum 2024 firma podkreśliła bliską współpracę z AMD, któremu według nieoficjalnych doniesień dostarcza moduły HBM piątej generacji, czyli HBM3E. Partnerstwo to może sugerować, że AMD rozważa wykorzystanie pamięci PIM w nowych projektach akceleratorów AI, co mogłoby rozwiązać część problemów energetycznych tego typu układów. CEO AMD, Lisa Su, wspominała w maju 2024 roku o wyzwaniach związanych z poborem mocy chipów AI, spowodowanych przez intensywne transfery danych między jednostkami logiki a pamięcią operacyjną. PIM, dzięki możliwości przetwarzania danych bezpośrednio w pamięci, mogłoby znacząco obniżyć zużycie energii. Jeśli technologia PIM zyska akceptację wśród liderów branży sztucznej inteligencji, takich jak AMD, może na stałe znaleźć swoje miejsce w zaawansowanych akceleratorach AI, na co Samsung mocno liczy.

Źródło: Samsung, The Chosun
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 7

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.