hbm3e
Samsung i Micron rywalizują o dominację na rynku pamięci HBM3E. Kto zdobędzie przewagę w erze AI?

Rosnące zapotrzebowanie na wydajne pamięci wykorzystywane w systemach sztucznej inteligencji napędza konkurencję między największymi producentami. W centrum uwagi znalazły się nowe generacje modułów HBM, które stają się podstawą dla układów przetwarzających ogromne ilości danych. Firmy takie jak Samsung i Micron intensyfikują działania, by zabezpieczyć pozycję na globalnym rynku. Jakie strategie przyjmują i kto może zyskać przewagę?
Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI

Micron ogłasza współpracę z NVIDIA, dostarczając pamięci HBM3E i SOCAMM dla nowej generacji serwerów AI i centrów danych. HBM3E 12H 36GB została zoptymalizowana pod kątem NVIDIA GB300 Grace Blackwell, a HBM3E 8H 24GB będzie wspierać HGX B200 i GB200 NVL72. Dzięki 1,2 TB/s przepustowości nowe moduły zapewnią wyższą wydajność AI i HPC. Micron zapowiedział także LPDDR5X SOCAMM, nowy format pamięci serwerowej dla rozwiązań AI i edge computing.
SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI

Podczas konferencji GTC 2025 SK hynix zaprezentował 12-warstwową pamięć HBM3E oraz SOCAMM, nowy standard dla serwerów AI. Nowe moduły zapewnią 60% wyższą wydajność i ponad 2 TB/s przepustowości, wspierając rozwój nowej generacji AI. SK hynix ogłosił również, że masowa produkcja HBM4 ruszy w drugiej połowie 2025 roku, a technologia ta znajdzie zastosowanie w przyszłych układach NVIDIA Rubin.
Samsung nie dostarczy w tym roku NVIDII pamięci HBM3E. Powodem są zbyt wyśrubowane standardy

Boom na sztuczną inteligencję oznacza także olbrzymie zapotrzebowanie na sprzęt do jej obsługi, a także na procesy i komponenty wykorzystywane do jego produkcji. Na szczycie tej listy znajduje się między innymi pamięć HBM3E. Jej głównymi dostawcami są firmy SK hynix, Micron oraz Samsung. W sieci pojawiły się informacje, według których ostatnie z wymienionych przedsiębiorstw wciąż ma problemy, by dostarczyć NVIDII pamięć o odpowiedniej jakości.
AMD Instinct MI325X - oficjalna prezentacja akceleratora dla sztucznej inteligencji. AMD zapowiada także układ Instinct MI355X

Konferencja od firmy AMD pod tytułem Advancing AI, która - jak sama nazwa wskazuje - skupiona była na rozwiązaniach stworzonych dla sztucznej inteligencji, jest już za nami. Czerwoni zaprezentowali kolejną (piątą) generację procesorów AMD EPYC, a także nowy akcelerator AMD Insinct MI325X. W bezpośrednim porównaniu ze swoim poprzednikiem może on liczyć głównie na większą pojemność pamięci, która przy okazji będzie szybsza. Zmianie uległ też zegar pamięci oraz pobór mocy.
SK hynix rozpoczął masową produkcję 12-warstwowej pamięci HBM3E o rekordowej pojemności na rynku

Rynek sprzętu dedykowanego sztucznej inteligencji jest obecnie jednym z najbardziej zyskownych w całej branży nowych technologii. Kierowane są na niego pokaźne środki, co owocuje dynamicznym rozwojem. Szybki postęp dokonuje się także w przypadku pamięci wykorzystywanej w akceleratorach AI. Jednym z największych jej producentów jest firma SK hynix. Właśnie rozpoczęła ona masową produkcję pamięci HBM3E o najwyższej pojemności na rynku.
Nadchodzą nowe chipy od AMD z serii Strix Point, EPYC i Instinct. Na premierę procesorów Zen 5 nie trzeba będzie długo czekać

Jesteśmy świeżo po premierze procesorów z serii AMD Ryzen 9000, a wszystko wskazuje na to, że już wkrótce firma AMD zaprezentuje kolejne chipy. Mowa tu zarówno o jednostkach przeznaczonych do centrów danych, jak i układach z linii Strix Point, choć nie powinno zabraknąć nowości dotyczących segmentu sztucznej inteligencji. Dokładną datę nadchodzącego wydarzenia zdradził pewien informator i wydaje się ona zgodna z wcześniejszymi doniesieniami.
Samsung pracuje nad technologią, która pozwoli umieścić pamięć HBM bezpośrednio na procesorze lub układzie graficznym

Innowacyjność w branży nowych technologii sprawia, że mamy do dyspozycji coraz wydajniejszy sprzęt, który w dodatku cechuje się lepszą efektywnością energetyczną. Także rynek pamięci HBM podlega tym przekształceniom. Firma Samsung planuje już wkrótce wprowadzić do swojej oferty rozwiązania sprzętowe, które zakładają umieszczenie chipów pamięci bezpośrednio na procesorze lub układzie graficznym. Takie podejście będzie miało szereg zalet.
Pamięci HBM3 i HBM3E Samsunga nie przeszły wewnętrznych testów NVIDIA. Problemem wysokie temperatury

Samsung na rynku pamięci operacyjnej HBM nieco odstaje od konkurencji, która obecnie cieszy się pełną masową produkcją chipów HBM3E. Oliwy do ognia dolewają problemy związane z nieprzejściem testów wewnętrznych NVIDIA, co na ten moment wyklucza możliwość dostarczania chipów pamięci dla akceleratorów graficznych B200 i H200. Sytuacja jest dynamiczna, ponieważ dotychczasowy szef działu półprzewodników Samsunga pożegnał się ze stanowiskiem.
SK hynix kolejną firmą, która rozpoczęła masową produkcję pamięci HBM3e. Jej przeznaczeniem będą układy NVIDIA B200

NVIDIA zaprezentowała podczas GTC 2024 pierwszy układ graficzny z rodziny Blackwell. B200 to rozwiązanie przeznaczone na rynek sztucznej inteligencji. Jedną z cech sprzętu będzie niezwykle szybka pamięć HBM3e. Firma SK hynix ogłosiła właśnie uruchomienie jej produkcji masowej. Dużą część zarezerwowała NVIDIA z myślą o nowych akceleratorach. Warto przy tym odnotować, że SK hynix nie jest pierwszym podmiotem, który rozpoczął produkcję tej pamięci.
NVIDIA B200 Tensor Core - akcelerator graficzny oparty na architekturze Blackwell. Na pokładzie m.in. 192 GB pamięci HBM3e

Mniej więcej w podobnym okresie czasu, dwa lata temu, NVIDIA zaprezentowała pierwszy akcelerator graficzny, oparty na architekturze Hopper. Mowa o układzie NVIDIA H100, który dzisiaj jest jednym z kluczowych czynników wpływających na wyniki finansowe przedsiębiorstwa. Po dwóch latach od ujawnienia architektury Hopper, przyszła pora na prezentację jego następcy. Mowa o generacji Blackwell, która tym razem została przygotowana zarówno pod zastosowania profesjonalne, jak również rozwiązania dla graczy....
Micron rozpoczyna masową produkcję chipów pamięci HBM3e o pojemności 24 GB. Trafią do układów graficznych NVIDIA H200

W tym roku na rynku powinny zadebiutować układy NVIDIA H200. Będzie to następca modelu H100, który zdobył bardzo dużą popularność wśród podmiotów zajmujących się treningiem sztucznej inteligencji. Sprzęt kolejnej generacji będzie wyposażony w szybką pamięć HBM3e. Firma Micron ogłosiła właśnie rozpoczęcie masowej produkcji chipów o pojemności 24 GB. W niedalekiej przyszłości ruszy także produkcja chipów 36 GB.
SK hynix nie nadąża z produkcją pamięci HBM. Zapasy przewidziane na 2024 rok zostały już wyprzedane

Sztuczna inteligencja jest ciągle w trendzie wznoszącym. To między innymi z tego powodu firmy zajmujące się produkcją komponentów, wykorzystywanych w szeroko pojętym segmencie centrów danych, nie mogą narzekać na brak zamówień. Dotyczy to również pamięci HBM, którą produkuje między innymi koreański SK hynix. Okazuje się, że także w tym przypadku klienci muszą ustawiać się w długie kolejki i nic nie wskazuje na to, że w najbliższej przyszłości to się zmieni.
NVIDIA zarezerwowała duże ilości pamięci HBM3e. Będzie wykorzystywana przez nadchodzące układy H200

W przyszłym roku NVIDIA wprowadzi na rynek akceleratory H200. Oczywiście cały proces wymaga odpowiednich przygotowań. Ich częścią jest zamówienie wystarczającej liczby podzespołów. Dotyczy to także pamięci HBM3e, którą omawiana konstrukcja będzie wykorzystywała. Koreańskie źródła prasowe donoszą, że amerykańska firma dokonała już odpowiednich zakupów w ramach przedsprzedaży. Ma to zapewnić większą podaż układów w przyszłości.
SK hynix dostarcza już próbki pamięci HBM3E do partnerów. Na liście między innymi NVIDIA

Plany NVIDII na przyszły rok zakładają debiut superchipów GH200 w wariancie, który będzie opierał się na wykorzystaniu pamięci HBM3E. Firma SK hynix ogłosiła, że ukończyła zasadniczą część prac nad nową pamięcią i rozpoczęła rozsyłanie próbek do swoich klientów. Rozpoczęcie produkcji masowej jest spodziewane w pierwszej połowie 2024 roku, co potwierdza, że superchipy GH200 z HBM3E zadebiutują w jego drugiej połowie.
NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s

NVIDIA GH200 to rozwiązanie przeznaczone przede wszystkim do budowy superkomputerów. Wśród potencjalnych zastosowań jest generatywna sztuczna inteligencja, której algorytmy będą w stanie wykorzystać w pełni potencjał superchipów Grace Hopper. Podczas konferencji SIGGRAPH NVIDIA zapowiedziała nową wersję układów. Główna różnica sprowadza się do zastosowania pamięci HBM3e, która jest obecnie uważana za najszybszą na świecie.
SK hynix przygotowuje się do produkcji nowej pamięci HBM3E. Zaletą rozwiązania jest szybszy transfer danych

Pamięć typu HBM3 znajduje zastosowanie przede wszystkim w zadaniach związanych ze sztuczną inteligencją. Zapotrzebowanie na tego typu sprzęt wzrasta i nieustannie dokonuje się postęp, dzięki któremu do odbiorców trafią coraz wydajniejsze rozwiązania sprzętowe. Przed pojawieniem się HBM4, SK hynix planuje dostarczyć na rynek pamięć HBM3E, która zaoferuje znaczący wzrost wydajności w porównaniu do swojego starszego odpowiednika.
Karta graficzna NVIDIA GeForce RTX 5070 już dostępna w cenie poniżej MSRP. Coraz tańszy jest również RTX 5070 Ti
AMD Radeon RX 9070 XT sprzedaje się 10 razy lepiej niż GeForce RTX 5080. A przynajmniej tak wynika z danych sklepu MindFactory
Test karty graficznej MSI GeForce RTX 5060 Ti Gaming 16 GB - Więcej pamięci graficznej, jednak czy proporcjonalnie do wydajności?
Linux Mint vs Windows 11 vs Fedora - który system jest lepszy do gier, pracy i sztucznej inteligencji? Test z NVIDIA GeForce RTX 4090
NVIDIA GeForce RTX 5070 Ti - Podkręcono pamięć karty graficznej. Kości GDDR7 od SK hynix osiągnęły 34 Gb/s