JEDEC ogłasza specyfikację kości pamięci HBM4, które zaoferują dwukrotnie wyższą przepustowość dla akceleratorów AI
Organizacja JEDEC, światowy lider w opracowywaniu standardów dla przemysłu mikroelektronicznego, opublikowała finalną specyfikację pamięci DRAM układanej w stosy – HBM4 (JESD270-4). Nowa generacja pamięci operacyjnej, przeznaczona dla wysokowydajnych akceleratorów graficznych, oferuje m.in. dwukrotnie większą przepustowość oraz lepszą efektywność energetyczną w porównaniu do poprzedników. Sprawdźmy zatem, co jeszcze zostało ulepszone w nowej iteracji.
Organizacja JEDEC opublikowała finalną specyfikację pamięci DRAM układanej w stosy – HBM4 (JESD270-4). Nowa generacja oferuje m.in. dwukrotnie większą przepustowość, wyższą pojemność danych oraz lepszą efektywność energetyczną w porównaniu do poprzedników.
SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI
Organizacja JEDEC opublikowała finalną specyfikację pamięci HBM4 (JESD270-4), z której dowiadujemy się, że nowy standard zaoferuje prędkości transferu do 8 Gb/s, co przy wykorzystaniu 2048-bitowej magistrali danych przekłada się na całkowitą przepustowość do 2 TB/s. To dwukrotnie więcej niż w przypadku HBM3 i o 800 GB/s więcej niż w HBM3E. Podwojono również liczbę niezależnych kanałów na stos – z 16 w HBM3 do 32 w HBM4, co zapewnia projektantom większą elastyczność oraz więcej równoległych ścieżek dostępu do pamięci. Poprawiono także efektywność energetyczną - nowy standard wspiera różne poziomy napięć: VDDQ (0,7 V, 0,75 V, 0,8 V lub 0,9 V) oraz VDDC (1,0 V lub 1,05 V). Wprowadzono również mechanizm Directed Refresh Management (DRFM), który zwiększa odporność na zjawisko Row-Hammer oraz poprawia niezawodność pamięci operacyjnej.
SK hynix ujawnia pierwsze oficjalne informacje o projekcie pamięci operacyjnych HBM następnej generacji
Pojemność pojedynczej kości HBM4, podobnie jak w przypadku poprzednich generacji, zależy od liczby stosów DRAM. Nowa iteracja może wykorzystywać 4, 8, 12 lub 16 warstw, przy gęstości pojedynczej matrycy wynoszącej 24 Gb lub 32 Gb, co pozwala na uzyskanie maksymalnej pojemności nawet do 64 GB (matryca 32 Gb i 16-warstwowy stos). Jedną z kluczowych cech standardu HBM4 jest pełna zgodność z kontrolerami HBM3 i HBM3E, co umożliwia płynną integrację oraz większą elastyczność projektową. Kontroler może obsługiwać zarówno kości HBM3, jak i HBM4 jednocześnie, co znacząco ułatwia wdrożenie w zróżnicowanych środowiskach sprzętowych. Pamięć HBM4, podobnie jak poprzednie generacje, znajdzie zastosowanie w wysokowydajnych układach graficznych, dedykowanych do akceleracji złożonych obliczeń oraz rozwoju sztucznej inteligencji, gdzie pojemność i przepustowość odgrywają kluczową rolę. Przemysł technologiczny aktywnie wspiera rozwój nowego standardu, w inicjatywę zaangażowane są m.in. AMD, NVIDIA, Google, Meta, Micron, Samsung, SK hynix oraz Synopsys.
Powiązane publikacje

AMD Radeon RX 9070 XT - modele z pamięciami GDDR6 od Samsunga są trochę wolniejsze od tych z modułami od SK hynix
299
NVIDIA GeForce RTX 5050 - nowe informacje o najsłabszym Blackwellu. VRAM i sekcja zasilania zdradzają możliwości karty
52
AMD Instinct MI400 z 432 GB pamięci HBM4 zadebiutuje w 2026 roku. AMD EPYC Verano z premierą w 2027 roku
32
AMD Instinct MI350X oraz Instinct MI355X oficjalnie zaprezentowane - Akceleratory oparte na architekturze CDNA 4
18