hbm4
JEDEC ogłasza specyfikację kości pamięci HBM4, które zaoferują dwukrotnie wyższą przepustowość dla akceleratorów AI

Organizacja JEDEC, światowy lider w opracowywaniu standardów dla przemysłu mikroelektronicznego, opublikowała finalną specyfikację pamięci DRAM układanej w stosy – HBM4 (JESD270-4). Nowa generacja pamięci operacyjnej, przeznaczona dla wysokowydajnych akceleratorów graficznych, oferuje m.in. dwukrotnie większą przepustowość oraz lepszą efektywność energetyczną w porównaniu do poprzedników. Sprawdźmy zatem, co jeszcze zostało ulepszone w nowej iteracji.
SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI

Podczas konferencji GTC 2025 SK hynix zaprezentował 12-warstwową pamięć HBM3E oraz SOCAMM, nowy standard dla serwerów AI. Nowe moduły zapewnią 60% wyższą wydajność i ponad 2 TB/s przepustowości, wspierając rozwój nowej generacji AI. SK hynix ogłosił również, że masowa produkcja HBM4 ruszy w drugiej połowie 2025 roku, a technologia ta znajdzie zastosowanie w przyszłych układach NVIDIA Rubin.
NVIDIA zapowiada Rubin i Rubin Ultra, nową generację GPU i CPU zapewniającących wysoką wydajność w obliczeniach

Podczas konferencji GTC 2025 Jensen Huang zaprezentował architekturę Rubin i Rubin Ultra, które mają zrewolucjonizować rynek HPC i AI. Nowe układy GPU zaoferują 100 PFLOPS mocy obliczeniowej FP4 oraz 1 TB pamięci HBM4, a ich działanie wspierać będą procesory Vera z 88 rdzeniami. Rubin Ultra ma zastąpić serię Blackwell, oferując nawet 40% lepszą wydajność. NVIDIA nie zwalnia tempa – premiera przewidziana jest na 2026 rok.
NVIDIA Rubin - prace nad nową generacją akceleratorów AI przebiegają sprawnie. Dostawy pamięci HBM4 już wkrótce

Akceleratory AI bazujące na architekturze Blackwell wciąż są postrzegane jako relatywna nowość. Do odbiorców trafiła bowiem dopiero pierwsza partia serwerów wykorzystujących to rozwiązanie. NVIDIA nie zwalnia jednak tempa. Trwają już obecnie zaawansowane prace nad architekturą kolejnej generacji. Są przesłanki, by sądzić, że akceleratory Rubin zadebiutują szybciej niż oczekiwano, choć raczej nie wyprą one na razie z rynku układów Blackwell.
Samsung pracuje nad technologią, która pozwoli umieścić pamięć HBM bezpośrednio na procesorze lub układzie graficznym

Innowacyjność w branży nowych technologii sprawia, że mamy do dyspozycji coraz wydajniejszy sprzęt, który w dodatku cechuje się lepszą efektywnością energetyczną. Także rynek pamięci HBM podlega tym przekształceniom. Firma Samsung planuje już wkrótce wprowadzić do swojej oferty rozwiązania sprzętowe, które zakładają umieszczenie chipów pamięci bezpośrednio na procesorze lub układzie graficznym. Takie podejście będzie miało szereg zalet.
SK hynix ujawnia pierwsze oficjalne informacje o projekcie pamięci operacyjnych HBM następnej generacji

Obecnie na rynku akceleratorów AI dominują pamięci HBM3 i HBM3E. SK hynix, jako jeden z największych dostawców tego rodzaju pamięci operacyjnej, nie spoczywa na laurach i stale poszukuje nowych, innowacyjnych rozwiązań. Firma właśnie podzieliła się oficjalnymi informacjami dotyczącymi budowy przyszłych kości pamięci 6. i 7. generacji. W ramach tych planów producent zamierza wprowadzić szereg ulepszeń, w tym m.in. przeniesienie kontrolera pamięci operacyjnej do pakietu kości HBM4E.
NVIDIA R100 Rubin - pierwsze informacje na temat kolejnej generacji akceleratorów pod obliczenia AI

W marcu tego roku NVIDIA zaprezentowała nową generację akceleratorów dla obliczeń AI, opartych na architekturze Blackwell. W jej skład wchodzą przede wszystkim układy NVIDIA B100 oraz B200, a także superchip Grace-Blackwell GB200. Podczas marcowego wystąpienia dowiedzieliśmy się, że układ B200 jest w rzeczywistości akceleratorem o budowie MCM, wyposażonym w 192 GB pamięci HBM3e. Tymczasem w sieci już pojawiają się pierwsze informacje na temat kolejnej generacji, z akceleratorem NVIDIA R100 na czele.
SK hynix podpisało ważną umowę ramową z TSMC na potrzeby badań i produkcji pamięci HBM4

Pamięć HBM, choć wcześniej stosowana była również w konsumenckich układach, obecnie stanowi główny typ pamięć VRAM dla układów profesjonalnych oraz chipów wykorzystywanych w sztucznej inteligencji. Sk hynix ogłosiło, że podpisało kluczową umowę badawczo-rozwojową z tajwańskim TSMC. Ta współpraca ma na celu wprowadzenie licznych ulepszeń w produkcji stosów pamięci HBM4, co m.in. ma przyczynić się do poprawy ich parametrów końcowych.
SK hynix planuje wybudować nowy ośrodek produkcyjny w Stanach Zjednoczonych. Zajmie się on pakowaniem pamięci HBM

Dywersyfikacja produkcji chipów wymaga budowania fabryk poza regionem Dalekiego Wschodu. Takie działania podejmuje między innymi TSMC. Wśród tych firm znajdują się jednak też inne podmioty. Jednym z nich jest południowokoreański SK hynix, który ogłosił powstanie nowego ośrodka produkcyjnego w Stanach Zjednoczonych. Co ważne, będzie to pierwsza tego typu fabryka w USA, zatem przedsięwzięcie pozytywnie wpłynie na stabilność branży.
SK hynix nie nadąża z produkcją pamięci HBM. Zapasy przewidziane na 2024 rok zostały już wyprzedane

Sztuczna inteligencja jest ciągle w trendzie wznoszącym. To między innymi z tego powodu firmy zajmujące się produkcją komponentów, wykorzystywanych w szeroko pojętym segmencie centrów danych, nie mogą narzekać na brak zamówień. Dotyczy to również pamięci HBM, którą produkuje między innymi koreański SK hynix. Okazuje się, że także w tym przypadku klienci muszą ustawiać się w długie kolejki i nic nie wskazuje na to, że w najbliższej przyszłości to się zmieni.
SK hynix pracuje z NVIDIĄ nad nowym projektem układu graficznego. Kluczowe będzie w nim umiejscowienie pamięci HBM4

Standardowa konstrukcja współczesnych GPU zakłada umiejscowienie stosów pamięci HBM w pobliżu procesora graficznego. Elementy te są następnie łączone za pośrednictwem szyny 1024-bitowej. Firmy SK hynix i NVIDIA pracują nad poważnymi zmianami w tej architekturze. Są one na tyle duże, że będą one miały wpływ nie tylko na sposób łączenia poszczególnych komponentów na płytce drukowanej, ale także wymuszą przekształcenia w procesie produkcyjnym.
Karta graficzna NVIDIA GeForce RTX 5070 już dostępna w cenie poniżej MSRP. Coraz tańszy jest również RTX 5070 Ti
AMD Radeon RX 9070 XT sprzedaje się 10 razy lepiej niż GeForce RTX 5080. A przynajmniej tak wynika z danych sklepu MindFactory
Test karty graficznej MSI GeForce RTX 5060 Ti Gaming 16 GB - Więcej pamięci graficznej, jednak czy proporcjonalnie do wydajności?
Linux Mint vs Windows 11 vs Fedora - który system jest lepszy do gier, pracy i sztucznej inteligencji? Test z NVIDIA GeForce RTX 4090
Serwis PurePC idzie z duchem czasu i oddaje się w ręce sztucznej inteligencji. Szykujcie się na jeszcze więcej newsów i artykułów!