Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

hbm3e

SK hynix kolejną firmą, która rozpoczęła masową produkcję pamięci HBM3e. Jej przeznaczeniem będą układy NVIDIA B200

SK hynix kolejną firmą, która rozpoczęła masową produkcję pamięci HBM3e. Jej przeznaczeniem będą układy NVIDIA B200

NVIDIA zaprezentowała podczas GTC 2024 pierwszy układ graficzny z rodziny Blackwell. B200 to rozwiązanie przeznaczone na rynek sztucznej inteligencji. Jedną z cech sprzętu będzie niezwykle szybka pamięć HBM3e. Firma SK hynix ogłosiła właśnie uruchomienie jej produkcji masowej. Dużą część zarezerwowała NVIDIA z myślą o nowych akceleratorach. Warto przy tym odnotować, że SK hynix nie jest pierwszym podmiotem, który rozpoczął produkcję tej pamięci.

NVIDIA B200 Tensor Core - akcelerator graficzny oparty na architekturze Blackwell. Na pokładzie m.in. 192 GB pamięci HBM3e

NVIDIA B200 Tensor Core - akcelerator graficzny oparty na architekturze Blackwell. Na pokładzie m.in. 192 GB pamięci HBM3e

Mniej więcej w podobnym okresie czasu, dwa lata temu, NVIDIA zaprezentowała pierwszy akcelerator graficzny, oparty na architekturze Hopper. Mowa o układzie NVIDIA H100, który dzisiaj jest jednym z kluczowych czynników wpływających na wyniki finansowe przedsiębiorstwa. Po dwóch latach od ujawnienia architektury Hopper, przyszła pora na prezentację jego następcy. Mowa o generacji Blackwell, która tym razem została przygotowana zarówno pod zastosowania profesjonalne, jak również rozwiązania dla graczy....

Micron rozpoczyna masową produkcję chipów pamięci HBM3e o pojemności 24 GB. Trafią do układów graficznych NVIDIA H200

Micron rozpoczyna masową produkcję chipów pamięci HBM3e o pojemności 24 GB. Trafią do układów graficznych NVIDIA H200

W tym roku na rynku powinny zadebiutować układy NVIDIA H200. Będzie to następca modelu H100, który zdobył bardzo dużą popularność wśród podmiotów zajmujących się treningiem sztucznej inteligencji. Sprzęt kolejnej generacji będzie wyposażony w szybką pamięć HBM3e. Firma Micron ogłosiła właśnie rozpoczęcie masowej produkcji chipów o pojemności 24 GB. W niedalekiej przyszłości ruszy także produkcja chipów 36 GB.

SK hynix nie nadąża z produkcją pamięci HBM. Zapasy przewidziane na 2024 rok zostały już wyprzedane

SK hynix nie nadąża z produkcją pamięci HBM. Zapasy przewidziane na 2024 rok zostały już wyprzedane

Sztuczna inteligencja jest ciągle w trendzie wznoszącym. To między innymi z tego powodu firmy zajmujące się produkcją komponentów, wykorzystywanych w szeroko pojętym segmencie centrów danych, nie mogą narzekać na brak zamówień. Dotyczy to również pamięci HBM, którą produkuje między innymi koreański SK hynix. Okazuje się, że także w tym przypadku klienci muszą ustawiać się w długie kolejki i nic nie wskazuje na to, że w najbliższej przyszłości to się zmieni.

NVIDIA zarezerwowała duże ilości pamięci HBM3e. Będzie wykorzystywana przez nadchodzące układy H200

NVIDIA zarezerwowała duże ilości pamięci HBM3e. Będzie wykorzystywana przez nadchodzące układy H200

W przyszłym roku NVIDIA wprowadzi na rynek akceleratory H200. Oczywiście cały proces wymaga odpowiednich przygotowań. Ich częścią jest zamówienie wystarczającej liczby podzespołów. Dotyczy to także pamięci HBM3e, którą omawiana konstrukcja będzie wykorzystywała. Koreańskie źródła prasowe donoszą, że amerykańska firma dokonała już odpowiednich zakupów w ramach przedsprzedaży. Ma to zapewnić większą podaż układów w przyszłości.

SK hynix dostarcza już próbki pamięci HBM3E do partnerów. Na liście między innymi NVIDIA

SK hynix dostarcza już próbki pamięci HBM3E do partnerów. Na liście między innymi NVIDIA

Plany NVIDII na przyszły rok zakładają debiut superchipów GH200 w wariancie, który będzie opierał się na wykorzystaniu pamięci HBM3E. Firma SK hynix ogłosiła, że ukończyła zasadniczą część prac nad nową pamięcią i rozpoczęła rozsyłanie próbek do swoich klientów. Rozpoczęcie produkcji masowej jest spodziewane w pierwszej połowie 2024 roku, co potwierdza, że superchipy GH200 z HBM3E zadebiutują w jego drugiej połowie.

NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s

NVIDIA GH200 - układ zostanie wyposażony w pamięć HBM3e o imponującej przepustowości nawet 10 TB/s

NVIDIA GH200 to rozwiązanie przeznaczone przede wszystkim do budowy superkomputerów. Wśród potencjalnych zastosowań jest generatywna sztuczna inteligencja, której algorytmy będą w stanie wykorzystać w pełni potencjał superchipów Grace Hopper. Podczas konferencji SIGGRAPH NVIDIA zapowiedziała nową wersję układów. Główna różnica sprowadza się do zastosowania pamięci HBM3e, która jest obecnie uważana za najszybszą na świecie.

SK hynix przygotowuje się do produkcji nowej pamięci HBM3E. Zaletą rozwiązania jest szybszy transfer danych

SK hynix przygotowuje się do produkcji nowej pamięci HBM3E. Zaletą rozwiązania jest szybszy transfer danych

Pamięć typu HBM3 znajduje zastosowanie przede wszystkim w zadaniach związanych ze sztuczną inteligencją. Zapotrzebowanie na tego typu sprzęt wzrasta i nieustannie dokonuje się postęp, dzięki któremu do odbiorców trafią coraz wydajniejsze rozwiązania sprzętowe. Przed pojawieniem się HBM4, SK hynix planuje dostarczyć na rynek pamięć HBM3E, która zaoferuje znaczący wzrost wydajności w porównaniu do swojego starszego odpowiednika.

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.