hbm4
SK Hynix wyprzedza Samsunga i Microna i jako pierwszy na świecie produkuje rewolucyjne pamięci HBM4. Wydajność wzrośnie o 69%

Rynek pamięci dla segmentu AI oraz HPC rozwija się w błyskawicznym tempie, a zapotrzebowanie na coraz wyższą przepustowość nieustannie rośnie. Producenci prześcigają się w dostarczaniu nowszych i wydajniejszych rozwiązań, które sprostają wymaganiom kolejnych generacji akceleratorów. Standard HBM, czyli High Bandwidth Memory, stał się podstawowym elementem tej układanki. Jego ewolucja jest niezbędna do dalszego postępu w dziedzinie sztucznej inteligencji.
Samsung w desperacji. Koreańska firma gotowa na cenową wojnę z SK Hynix i Micron o lukratywne kontrakty NVIDIĄ na pamięci HBM4

Rynek akceleratorów AI to obecnie jeden z najbardziej dochodowych i najszybciej rozwijających się segmentów branży technologicznej. Ważnym komponentem tych urządzeń są pamięci o wysokiej przepustowości, znane jako HBM. Walka o kontrakty na ich dostawę jest niezwykle zacięta. Producenci, którzy sprostają najwyższym wymaganiom wydajnościowym i jakościowym, mogą liczyć na ogromne zyski. Pozostali muszą pogodzić się z utratą udziałów w rynku.
Poznaliśmy szczegóły specyfikacji pamięci od HBM4 do HBM8. Wbudowane chłodzenie, wysoka przepustowość i gęstość pamięci

Wielowarstwowe pamięci operacyjne HBM towarzyszą nam od lat. Choć miały krótki epizod w sprzęcie konsumenckim, na przykład w kartach graficznych z serii AMD Radeon Vega, to jednak niepodzielnie dominują w segmencie serwerowym. Teraz poznaliśmy szczegóły specyfikacji nadchodzących pamięci HBM4, a także plany dotyczące kolejnych generacji, sięgające aż do HBM8, która ma już mieć wbudowane chłodzenie, ale również dosłownie kosmiczne parametry.
JEDEC ogłasza specyfikację kości pamięci HBM4, które zaoferują dwukrotnie wyższą przepustowość dla akceleratorów AI

Organizacja JEDEC, światowy lider w opracowywaniu standardów dla przemysłu mikroelektronicznego, opublikowała finalną specyfikację pamięci DRAM układanej w stosy – HBM4 (JESD270-4). Nowa generacja pamięci operacyjnej, przeznaczona dla wysokowydajnych akceleratorów graficznych, oferuje m.in. dwukrotnie większą przepustowość oraz lepszą efektywność energetyczną w porównaniu do poprzedników. Sprawdźmy zatem, co jeszcze zostało ulepszone w nowej iteracji.
SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI

Podczas konferencji GTC 2025 SK hynix zaprezentował 12-warstwową pamięć HBM3E oraz SOCAMM, nowy standard dla serwerów AI. Nowe moduły zapewnią 60% wyższą wydajność i ponad 2 TB/s przepustowości, wspierając rozwój nowej generacji AI. SK hynix ogłosił również, że masowa produkcja HBM4 ruszy w drugiej połowie 2025 roku, a technologia ta znajdzie zastosowanie w przyszłych układach NVIDIA Rubin.
NVIDIA zapowiada Rubin i Rubin Ultra, nową generację GPU i CPU zapewniającących wysoką wydajność w obliczeniach

Podczas konferencji GTC 2025 Jensen Huang zaprezentował architekturę Rubin i Rubin Ultra, które mają zrewolucjonizować rynek HPC i AI. Nowe układy GPU zaoferują 100 PFLOPS mocy obliczeniowej FP4 oraz 1 TB pamięci HBM4, a ich działanie wspierać będą procesory Vera z 88 rdzeniami. Rubin Ultra ma zastąpić serię Blackwell, oferując nawet 40% lepszą wydajność. NVIDIA nie zwalnia tempa – premiera przewidziana jest na 2026 rok.
NVIDIA Rubin - prace nad nową generacją akceleratorów AI przebiegają sprawnie. Dostawy pamięci HBM4 już wkrótce

Akceleratory AI bazujące na architekturze Blackwell wciąż są postrzegane jako relatywna nowość. Do odbiorców trafiła bowiem dopiero pierwsza partia serwerów wykorzystujących to rozwiązanie. NVIDIA nie zwalnia jednak tempa. Trwają już obecnie zaawansowane prace nad architekturą kolejnej generacji. Są przesłanki, by sądzić, że akceleratory Rubin zadebiutują szybciej niż oczekiwano, choć raczej nie wyprą one na razie z rynku układów Blackwell.
Samsung pracuje nad technologią, która pozwoli umieścić pamięć HBM bezpośrednio na procesorze lub układzie graficznym

Innowacyjność w branży nowych technologii sprawia, że mamy do dyspozycji coraz wydajniejszy sprzęt, który w dodatku cechuje się lepszą efektywnością energetyczną. Także rynek pamięci HBM podlega tym przekształceniom. Firma Samsung planuje już wkrótce wprowadzić do swojej oferty rozwiązania sprzętowe, które zakładają umieszczenie chipów pamięci bezpośrednio na procesorze lub układzie graficznym. Takie podejście będzie miało szereg zalet.
SK hynix ujawnia pierwsze oficjalne informacje o projekcie pamięci operacyjnych HBM następnej generacji

Obecnie na rynku akceleratorów AI dominują pamięci HBM3 i HBM3E. SK hynix, jako jeden z największych dostawców tego rodzaju pamięci operacyjnej, nie spoczywa na laurach i stale poszukuje nowych, innowacyjnych rozwiązań. Firma właśnie podzieliła się oficjalnymi informacjami dotyczącymi budowy przyszłych kości pamięci 6. i 7. generacji. W ramach tych planów producent zamierza wprowadzić szereg ulepszeń, w tym m.in. przeniesienie kontrolera pamięci operacyjnej do pakietu kości HBM4E.
NVIDIA R100 Rubin - pierwsze informacje na temat kolejnej generacji akceleratorów pod obliczenia AI

W marcu tego roku NVIDIA zaprezentowała nową generację akceleratorów dla obliczeń AI, opartych na architekturze Blackwell. W jej skład wchodzą przede wszystkim układy NVIDIA B100 oraz B200, a także superchip Grace-Blackwell GB200. Podczas marcowego wystąpienia dowiedzieliśmy się, że układ B200 jest w rzeczywistości akceleratorem o budowie MCM, wyposażonym w 192 GB pamięci HBM3e. Tymczasem w sieci już pojawiają się pierwsze informacje na temat kolejnej generacji, z akceleratorem NVIDIA R100 na czele.
SK hynix podpisało ważną umowę ramową z TSMC na potrzeby badań i produkcji pamięci HBM4

Pamięć HBM, choć wcześniej stosowana była również w konsumenckich układach, obecnie stanowi główny typ pamięć VRAM dla układów profesjonalnych oraz chipów wykorzystywanych w sztucznej inteligencji. Sk hynix ogłosiło, że podpisało kluczową umowę badawczo-rozwojową z tajwańskim TSMC. Ta współpraca ma na celu wprowadzenie licznych ulepszeń w produkcji stosów pamięci HBM4, co m.in. ma przyczynić się do poprawy ich parametrów końcowych.
SK hynix planuje wybudować nowy ośrodek produkcyjny w Stanach Zjednoczonych. Zajmie się on pakowaniem pamięci HBM

Dywersyfikacja produkcji chipów wymaga budowania fabryk poza regionem Dalekiego Wschodu. Takie działania podejmuje między innymi TSMC. Wśród tych firm znajdują się jednak też inne podmioty. Jednym z nich jest południowokoreański SK hynix, który ogłosił powstanie nowego ośrodka produkcyjnego w Stanach Zjednoczonych. Co ważne, będzie to pierwsza tego typu fabryka w USA, zatem przedsięwzięcie pozytywnie wpłynie na stabilność branży.
SK hynix nie nadąża z produkcją pamięci HBM. Zapasy przewidziane na 2024 rok zostały już wyprzedane

Sztuczna inteligencja jest ciągle w trendzie wznoszącym. To między innymi z tego powodu firmy zajmujące się produkcją komponentów, wykorzystywanych w szeroko pojętym segmencie centrów danych, nie mogą narzekać na brak zamówień. Dotyczy to również pamięci HBM, którą produkuje między innymi koreański SK hynix. Okazuje się, że także w tym przypadku klienci muszą ustawiać się w długie kolejki i nic nie wskazuje na to, że w najbliższej przyszłości to się zmieni.
SK hynix pracuje z NVIDIĄ nad nowym projektem układu graficznego. Kluczowe będzie w nim umiejscowienie pamięci HBM4

Standardowa konstrukcja współczesnych GPU zakłada umiejscowienie stosów pamięci HBM w pobliżu procesora graficznego. Elementy te są następnie łączone za pośrednictwem szyny 1024-bitowej. Firmy SK hynix i NVIDIA pracują nad poważnymi zmianami w tej architekturze. Są one na tyle duże, że będą one miały wpływ nie tylko na sposób łączenia poszczególnych komponentów na płytce drukowanej, ale także wymuszą przekształcenia w procesie produkcyjnym.
Test Cronos: The New Dawn PC. Jakość technik NVIDIA DLSS 4, AMD FSR 3.1 oraz Intel XeSS 2. Frame Generation i skalowanie wydajności
Procesor Intel Core i5-14600K BOX plus Battlefield 6 teraz w rewelacyjnie niskiej cenie. Za 649 zł niczego lepszego nie dostaniesz
Test wydajności Cronos: The New Dawn - Dead Space po polsku, czyli za komuny nie było lepiej! Świetna grafika i wysokie wymagania
Linux z rekordowym udziałem w Polsce i Europie. Alternatywa dla Windowsa nigdy nie była tak popularna
NVIDIA ogranicza produkcję kart graficznych GeForce RTX 5060 i RTX 5060 Ti 8 GB w obliczu rynkowej dominacji