SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI
Podczas konferencji GTC 2025 SK hynix zaprezentował 12-warstwową pamięć HBM3E oraz SOCAMM, nowy standard dla serwerów AI. Nowe moduły zapewnią 60% wyższą wydajność i ponad 2 TB/s przepustowości, wspierając rozwój nowej generacji AI. SK hynix ogłosił również, że masowa produkcja HBM4 ruszy w drugiej połowie 2025 roku, a technologia ta znajdzie zastosowanie w przyszłych układach NVIDIA Rubin.
SK hynix zaprezentował na GTC 2025 nową generację pamięci dla AI, w tym 12-warstwową HBM3E oraz moduł SOCAMM. Firma zapowiada masową produkcję HBM4 jeszcze w tym roku.
Micron zaprezentował proces technologiczny 1γ. Rozwiązanie jest już wykorzystywane do produkcji pamięci DDR5
Podczas tegorocznej konferencji NVIDIA GTC 2025 SK hynix przedstawił swoje najnowsze osiągnięcia w dziedzinie pamięci DRAM dedykowanych sztucznej inteligencji i obliczeniom wysokiej wydajności (HPC). Firma zaprezentowała 12-warstwową pamięć HBM3E, kluczowy element w procesorach graficznych nowej generacji, a także SOCAMM (Small Outline Compression Attached Memory Module) – nowy standard pamięci przeznaczony dla serwerów AI. Według przedstawicieli SK hynix, nowe moduły zapewnią przełomową przepustowość i energooszczędność, co uczyni je idealnym rozwiązaniem dla przyszłych modeli AI.
Micron, Samsung i SK hynix przygotowują się do zakończenia produkcji pamięci DDR3 i DDR4 jeszcze w tym roku
Nowa pamięć HBM3E charakteryzuje się 60% wzrostem wydajności względem poprzedniej generacji HBM3 oraz przepustowością przekraczającą 2 TB/s. Jest to technologia zaprojektowana z myślą o wymagających systemach AI, takich jak trening dużych modeli językowych (LLM) i analiza Big Data. Z kolei SOCAMM, jako nowy format pamięci dla serwerów, oferuje wyższą gęstość upakowania chipów DRAM, co pozwala na zwiększenie wydajności przy jednoczesnym obniżeniu zużycia energii.
NVIDIA i kilku producentów pamięci pracuje nad modułami SOCAMM. Rozwiązanie znajdzie zastosowanie w komputerach AI
Przemawiając na GTC 2025, CEO firmy SK hynix, Kwak Noh-Jung podkreślił, że firma jest gotowa do rozpoczęcia masowej produkcji 12-warstwowej HBM4 jeszcze w drugiej połowie 2025 roku. Technologia ta, stosowana m.in. w nowej generacji układów NVIDIA Rubin, ma zaoferować jeszcze wyższą przepustowość oraz zwiększoną pojemność w porównaniu do HBM3E. SK hynix potwierdził również współpracę z tajwańskim TSMC w zakresie pakowania i integracji nowych modułów pamięci.
Patriot świętuje 40-lecie na targach CES 2025 i prezentuje bardzo szybkie pamięci RAM DDR5 o prędkości 9600 MT/s
Najnowsze zapowiedzi pokazują, że SK hynix umacnia swoją pozycję lidera na rynku zaawansowanych pamięci DRAM, które są kluczowe dla rozwoju AI oraz HPC. Konkurencja, w tym Samsung i Micron, również pracuje nad nowymi rozwiązaniami, jednak SK hynix pozostaje na czele wyścigu, dostarczając pierwsze próbki nowej generacji pamięci do kluczowych klientów. Masowa produkcja HBM4 ma ruszyć w 2026 roku, co oznacza, że przyszłe procesory graficzne i systemy AI będą jeszcze bardziej wydajne i energooszczędne.
Powiązane publikacje

G.SKILL przedstawia pierwszy na świecie zestaw pamięci RAM DDR5 o pojemności 256 GB. Idealny dla procesorów AMD Ryzen
22
Samsung i Micron rywalizują o dominację na rynku pamięci HBM3E. Kto zdobędzie przewagę w erze AI?
3
Ferroelectric Memory wraz z Neumonda podejmują wysiłek komercjalizacji pamięci DRAM+, łączącej zalety SSD i RAM
35
V-Color ustanawia nowy rekord świata w podkręcaniu pamięci DDR5. Osiągnięto oszałamiającą prędkość transferów
16