Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

hbm3e

Samsung i Micron rywalizują o dominację na rynku pamięci HBM3E. Kto zdobędzie przewagę w erze AI?

Samsung i Micron rywalizują o dominację na rynku pamięci HBM3E. Kto zdobędzie przewagę w erze AI?

Rosnące zapotrzebowanie na wydajne pamięci wykorzystywane w systemach sztucznej inteligencji napędza konkurencję między największymi producentami. W centrum uwagi znalazły się nowe generacje modułów HBM, które stają się podstawą dla układów przetwarzających ogromne ilości danych. Firmy takie jak Samsung i Micron intensyfikują działania, by zabezpieczyć pozycję na globalnym rynku. Jakie strategie przyjmują i kto może zyskać przewagę?

Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI

Micron i NVIDIA łączą siły. Nowe pamięci HBM3E i SOCAMM dla centrów danych i AI

Micron ogłasza współpracę z NVIDIA, dostarczając pamięci HBM3E i SOCAMM dla nowej generacji serwerów AI i centrów danych. HBM3E 12H 36GB została zoptymalizowana pod kątem NVIDIA GB300 Grace Blackwell, a HBM3E 8H 24GB będzie wspierać HGX B200 i GB200 NVL72. Dzięki 1,2 TB/s przepustowości nowe moduły zapewnią wyższą wydajność AI i HPC. Micron zapowiedział także LPDDR5X SOCAMM, nowy format pamięci serwerowej dla rozwiązań AI i edge computing.

SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI

SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI

Podczas konferencji GTC 2025 SK hynix zaprezentował 12-warstwową pamięć HBM3E oraz SOCAMM, nowy standard dla serwerów AI. Nowe moduły zapewnią 60% wyższą wydajność i ponad 2 TB/s przepustowości, wspierając rozwój nowej generacji AI. SK hynix ogłosił również, że masowa produkcja HBM4 ruszy w drugiej połowie 2025 roku, a technologia ta znajdzie zastosowanie w przyszłych układach NVIDIA Rubin.

Samsung nie dostarczy w tym roku NVIDII pamięci HBM3E. Powodem są zbyt wyśrubowane standardy

Samsung nie dostarczy w tym roku NVIDII pamięci HBM3E. Powodem są zbyt wyśrubowane standardy

Boom na sztuczną inteligencję oznacza także olbrzymie zapotrzebowanie na sprzęt do jej obsługi, a także na procesy i komponenty wykorzystywane do jego produkcji. Na szczycie tej listy znajduje się między innymi pamięć HBM3E. Jej głównymi dostawcami są firmy SK hynix, Micron oraz Samsung. W sieci pojawiły się informacje, według których ostatnie z wymienionych przedsiębiorstw wciąż ma problemy, by dostarczyć NVIDII pamięć o odpowiedniej jakości.

AMD Instinct MI325X - oficjalna prezentacja akceleratora dla sztucznej inteligencji. AMD zapowiada także układ Instinct MI355X

AMD Instinct MI325X - oficjalna prezentacja akceleratora dla sztucznej inteligencji. AMD zapowiada także układ Instinct MI355X

Konferencja od firmy AMD pod tytułem Advancing AI, która - jak sama nazwa wskazuje - skupiona była na rozwiązaniach stworzonych dla sztucznej inteligencji, jest już za nami. Czerwoni zaprezentowali kolejną (piątą) generację procesorów AMD EPYC, a także nowy akcelerator AMD Insinct MI325X. W bezpośrednim porównaniu ze swoim poprzednikiem może on liczyć głównie na większą pojemność pamięci, która przy okazji będzie szybsza. Zmianie uległ też zegar pamięci oraz pobór mocy.

SK hynix rozpoczął masową produkcję 12-warstwowej pamięci HBM3E o rekordowej pojemności na rynku

SK hynix rozpoczął masową produkcję 12-warstwowej pamięci HBM3E o rekordowej pojemności na rynku

Rynek sprzętu dedykowanego sztucznej inteligencji jest obecnie jednym z najbardziej zyskownych w całej branży nowych technologii. Kierowane są na niego pokaźne środki, co owocuje dynamicznym rozwojem. Szybki postęp dokonuje się także w przypadku pamięci wykorzystywanej w akceleratorach AI. Jednym z największych jej producentów jest firma SK hynix. Właśnie rozpoczęła ona masową produkcję pamięci HBM3E o najwyższej pojemności na rynku.

Nadchodzą nowe chipy od AMD z serii Strix Point, EPYC i Instinct. Na premierę procesorów Zen 5 nie trzeba będzie długo czekać

Nadchodzą nowe chipy od AMD z serii Strix Point, EPYC i Instinct. Na premierę procesorów Zen 5 nie trzeba będzie długo czekać

Jesteśmy świeżo po premierze procesorów z serii AMD Ryzen 9000, a wszystko wskazuje na to, że już wkrótce firma AMD zaprezentuje kolejne chipy. Mowa tu zarówno o jednostkach przeznaczonych do centrów danych, jak i układach z linii Strix Point, choć nie powinno zabraknąć nowości dotyczących segmentu sztucznej inteligencji. Dokładną datę nadchodzącego wydarzenia zdradził pewien informator i wydaje się ona zgodna z wcześniejszymi doniesieniami.

Samsung pracuje nad technologią, która pozwoli umieścić pamięć HBM bezpośrednio na procesorze lub układzie graficznym

Samsung pracuje nad technologią, która pozwoli umieścić pamięć HBM bezpośrednio na procesorze lub układzie graficznym

Innowacyjność w branży nowych technologii sprawia, że mamy do dyspozycji coraz wydajniejszy sprzęt, który w dodatku cechuje się lepszą efektywnością energetyczną. Także rynek pamięci HBM podlega tym przekształceniom. Firma Samsung planuje już wkrótce wprowadzić do swojej oferty rozwiązania sprzętowe, które zakładają umieszczenie chipów pamięci bezpośrednio na procesorze lub układzie graficznym. Takie podejście będzie miało szereg zalet.

Pamięci HBM3 i HBM3E Samsunga nie przeszły wewnętrznych testów NVIDIA. Problemem wysokie temperatury

Pamięci HBM3 i HBM3E Samsunga nie przeszły wewnętrznych testów NVIDIA. Problemem wysokie temperatury

Samsung na rynku pamięci operacyjnej HBM nieco odstaje od konkurencji, która obecnie cieszy się pełną masową produkcją chipów HBM3E. Oliwy do ognia dolewają problemy związane z nieprzejściem testów wewnętrznych NVIDIA, co na ten moment wyklucza możliwość dostarczania chipów pamięci dla akceleratorów graficznych B200 i H200. Sytuacja jest dynamiczna, ponieważ dotychczasowy szef działu półprzewodników Samsunga pożegnał się ze stanowiskiem.

SK hynix kolejną firmą, która rozpoczęła masową produkcję pamięci HBM3e. Jej przeznaczeniem będą układy NVIDIA B200

SK hynix kolejną firmą, która rozpoczęła masową produkcję pamięci HBM3e. Jej przeznaczeniem będą układy NVIDIA B200

NVIDIA zaprezentowała podczas GTC 2024 pierwszy układ graficzny z rodziny Blackwell. B200 to rozwiązanie przeznaczone na rynek sztucznej inteligencji. Jedną z cech sprzętu będzie niezwykle szybka pamięć HBM3e. Firma SK hynix ogłosiła właśnie uruchomienie jej produkcji masowej. Dużą część zarezerwowała NVIDIA z myślą o nowych akceleratorach. Warto przy tym odnotować, że SK hynix nie jest pierwszym podmiotem, który rozpoczął produkcję tej pamięci.

NVIDIA B200 Tensor Core - akcelerator graficzny oparty na architekturze Blackwell. Na pokładzie m.in. 192 GB pamięci HBM3e

NVIDIA B200 Tensor Core - akcelerator graficzny oparty na architekturze Blackwell. Na pokładzie m.in. 192 GB pamięci HBM3e

Mniej więcej w podobnym okresie czasu, dwa lata temu, NVIDIA zaprezentowała pierwszy akcelerator graficzny, oparty na architekturze Hopper. Mowa o układzie NVIDIA H100, który dzisiaj jest jednym z kluczowych czynników wpływających na wyniki finansowe przedsiębiorstwa. Po dwóch latach od ujawnienia architektury Hopper, przyszła pora na prezentację jego następcy. Mowa o generacji Blackwell, która tym razem została przygotowana zarówno pod zastosowania profesjonalne, jak również rozwiązania dla graczy....

Micron rozpoczyna masową produkcję chipów pamięci HBM3e o pojemności 24 GB. Trafią do układów graficznych NVIDIA H200

Micron rozpoczyna masową produkcję chipów pamięci HBM3e o pojemności 24 GB. Trafią do układów graficznych NVIDIA H200

W tym roku na rynku powinny zadebiutować układy NVIDIA H200. Będzie to następca modelu H100, który zdobył bardzo dużą popularność wśród podmiotów zajmujących się treningiem sztucznej inteligencji. Sprzęt kolejnej generacji będzie wyposażony w szybką pamięć HBM3e. Firma Micron ogłosiła właśnie rozpoczęcie masowej produkcji chipów o pojemności 24 GB. W niedalekiej przyszłości ruszy także produkcja chipów 36 GB.

SK hynix nie nadąża z produkcją pamięci HBM. Zapasy przewidziane na 2024 rok zostały już wyprzedane

SK hynix nie nadąża z produkcją pamięci HBM. Zapasy przewidziane na 2024 rok zostały już wyprzedane

Sztuczna inteligencja jest ciągle w trendzie wznoszącym. To między innymi z tego powodu firmy zajmujące się produkcją komponentów, wykorzystywanych w szeroko pojętym segmencie centrów danych, nie mogą narzekać na brak zamówień. Dotyczy to również pamięci HBM, którą produkuje między innymi koreański SK hynix. Okazuje się, że także w tym przypadku klienci muszą ustawiać się w długie kolejki i nic nie wskazuje na to, że w najbliższej przyszłości to się zmieni.

NVIDIA zarezerwowała duże ilości pamięci HBM3e. Będzie wykorzystywana przez nadchodzące układy H200

NVIDIA zarezerwowała duże ilości pamięci HBM3e. Będzie wykorzystywana przez nadchodzące układy H200

W przyszłym roku NVIDIA wprowadzi na rynek akceleratory H200. Oczywiście cały proces wymaga odpowiednich przygotowań. Ich częścią jest zamówienie wystarczającej liczby podzespołów. Dotyczy to także pamięci HBM3e, którą omawiana konstrukcja będzie wykorzystywała. Koreańskie źródła prasowe donoszą, że amerykańska firma dokonała już odpowiednich zakupów w ramach przedsprzedaży. Ma to zapewnić większą podaż układów w przyszłości.

SK hynix dostarcza już próbki pamięci HBM3E do partnerów. Na liście między innymi NVIDIA

SK hynix dostarcza już próbki pamięci HBM3E do partnerów. Na liście między innymi NVIDIA

Plany NVIDII na przyszły rok zakładają debiut superchipów GH200 w wariancie, który będzie opierał się na wykorzystaniu pamięci HBM3E. Firma SK hynix ogłosiła, że ukończyła zasadniczą część prac nad nową pamięcią i rozpoczęła rozsyłanie próbek do swoich klientów. Rozpoczęcie produkcji masowej jest spodziewane w pierwszej połowie 2024 roku, co potwierdza, że superchipy GH200 z HBM3E zadebiutują w jego drugiej połowie.

NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s

NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s

NVIDIA GH200 to rozwiązanie przeznaczone przede wszystkim do budowy superkomputerów. Wśród potencjalnych zastosowań jest generatywna sztuczna inteligencja, której algorytmy będą w stanie wykorzystać w pełni potencjał superchipów Grace Hopper. Podczas konferencji SIGGRAPH NVIDIA zapowiedziała nową wersję układów. Główna różnica sprowadza się do zastosowania pamięci HBM3e, która jest obecnie uważana za najszybszą na świecie.

SK hynix przygotowuje się do produkcji nowej pamięci HBM3E. Zaletą rozwiązania jest szybszy transfer danych

SK hynix przygotowuje się do produkcji nowej pamięci HBM3E. Zaletą rozwiązania jest szybszy transfer danych

Pamięć typu HBM3 znajduje zastosowanie przede wszystkim w zadaniach związanych ze sztuczną inteligencją. Zapotrzebowanie na tego typu sprzęt wzrasta i nieustannie dokonuje się postęp, dzięki któremu do odbiorców trafią coraz wydajniejsze rozwiązania sprzętowe. Przed pojawieniem się HBM4, SK hynix planuje dostarczyć na rynek pamięć HBM3E, która zaoferuje znaczący wzrost wydajności w porównaniu do swojego starszego odpowiednika.

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.