hbm4
Z-Angle Memory nabiera kształtów. Intel ujawnia plany układu HB3DM, który ma uderzyć w słabe punkty HBM na rynku AI
W segmencie pamięci dla akceleratorów sztucznej inteligencji coraz rzadziej chodzi wyłącznie o wyższe taktowanie czy kolejną rewizję standardu. Intel i SoftBank sugerują, że wąskie gardło leży głębiej, czyli w samej fizyce stosu DRAM, sposobie prowadzenia połączeń i odprowadzaniu ciepła. Właśnie z tej tezy wyrasta pamięć HB3DM, czyli pierwszy publicznie opisany układ rozwijany w ramach szerszego programu Z-Angle Memory.
Firma Micron może opracowywać nowy typ pamięci GDDR, który będzie plasowany pomiędzy GDDR7 i HBM4
Micron to obecnie jedna z największych firm, która odpowiada za produkcję zarówno pamięci HBM (w tym najnowszych generacji HBM4 oraz HBM4e) jak również GDDR7 (najnowsza generacja dla konsumenckich kart graficznych). Obecnie sytuacja na rynku jest jednak jaka jest i większość mocy przerobowych takich firm jak Micron idzie na produkcję pamięci dla akceleratorów AI. Według koreańskich źródeł, producent może opracowywać nowy typ pamięci, będących czymś pomiędzy GDDR7 oraz HBM(4).
Intel Foundry rozbudowuje infrastrukturę pakowania chipów w Malezji. Inwestycja 7,1 mld USD kontra monopol CoWoS od TSMC
Firma Intel od lat walczy o odbudowanie pozycji w branży półprzewodników, lecz front zmagań przesunął się z litografii w stronę zaawansowanego pakowania chipów. To właśnie tu, gdzie wiele układów scalonych łączy się w jeden moduł milionami precyzyjnych połączeń, decydują się losy kolejnej generacji akceleratorów sztucznej inteligencji. Malezja stała się centralnym punktem tej strategii, a słowa tamtejszego premiera to sygnał startu dla całego projektu.
Samsung jest głównym dostawcą pamięci HBM4 Gen 6 dla platformy AMD Instinct MI455X i architektury rack-scale Helios
Lisa Su osobiście przyleciała do Korei Południowej, aby usiąść przy stole z Youngiem Hyunem Junem, dyrektorem Samsunga. Ceremonia odbyła się 18 marca 2026 roku w Pyeongtaek, w najnowocześniejszym kompleksie produkcyjnym koreańskiej firmy. Cel wizyty był jeden. Zabezpieczyć dostawy pamięci HBM4 dla akceleratora, od którego AMD zależy bardziej niż od jakiegokolwiek produktu od lat. Wynik negocjacji jest czymś znacznie ważniejszym.
Samsung HBM4E debiutuje na NVIDIA GTC 2026. 16 Gb/s, 4 TB/s przepustowości i 48 GB na stos dla platformy Rubin Ultra
Targi NVIDIA GTC 2026 to nie tylko pokaz kart graficznych i nowych platform obliczeniowych. Dla producentów pamięci to szansa na udowodnienie, że mają coś do zaoferowania przemysłowi AI. Samsung przyjechał do San Jose z szerokim portfolio i jedną premierą, która przyciąga szczególną uwagę, czyli pamięcią HBM4E, po raz pierwszy pokazaną publicznie. Jeszcze nie trafiła do masowej produkcji, ale pokazuje kierunek podążania następnej generacji infrastruktury AI.
Trzy przełomy Microna naraz, czyli masowa produkcja HBM4 36 GB 12H, Gen6 SSD i SOCAMM2 dla platformy NVIDIA Vera Rubin
Rynek pamięci dla akceleratorów AI przechodzi właśnie kolejny przełom. Micron ogłosił masową produkcję HBM4, zaprojektowanej specjalnie dla platformy NVIDIA Vera Rubin. Do tego firma dorzuca jeszcze dwa produkty, w tym pierwszy na świecie nośnik SSD z interfejsem PCIe Gen6 oraz moduły SOCAMM2 w nowym standardzie. Trzy premierowe wyroby naraz, i każdy z nich pretenduje do miana branżowego rekordzisty.
Pamięć dla AI przyspiesza o 60 proc. Rambus pokazał kontroler HBM4E, na który czekają NVIDIA i AMD
Przepustowość pamięci od kilku lat jest jednym z głównych ograniczeń wydajności akceleratorów AI. Im większy model językowy, tym więcej danych procesor musi przetwarzać w krótkim czasie, i tym bardziej widoczna staje się przepaść między możliwościami obliczeniowymi układów a tym, jak szybko pamięć nadąża z dostarczaniem danych. Rambus, firma specjalizująca się w licencjonowaniu IP dla układów scalonych, ogłosiła właśnie kolejny krok w tym wyścigu.
NVIDIA Vera Rubin NVL72 to 72 GPU Rubin, HBM4 o przepustowości 22 TB/s i 10-krotnie niższy koszt tokenu niż w Blackwellu
NVIDIA oficjalnie potwierdziła dostarczenie pierwszych próbek systemu Vera Rubin VR200 do klientów. To nastepca platformy Grace Blackwell, która, jak pisalismy przy okazji recenzji RTX 5090, zrewolucjonizowała podejscie do budowy akceleratorów AI. Tym razem firma idzie jeszcze dalej, projektujac od podstaw sześć nowych chipów i stawiajac racka w centrum całej architektury. Czym Vera Rubin różni sie od poprzednika i czy 25-procentowa podwyżka ceny ma uzasadnienie?
Samsung Foundry z 80-procentowym wykorzystaniem mocy produkcyjnych. HBM4 na 4 nm pozwala przełamać impas
Fabryki Samsunga w Pyeongtaek pracują na pełnych obrotach, a wskaźnik wykorzystania mocy produkcyjnych w działach foundry przebił 80 proc. w pierwszym kwartale 2026 roku. To spektakularny zwrot w porównaniu z dramatycznymi wskaźnikami poniżej 50 proc. z roku 2024, gdy firma zamykała linie produkcyjne i zwalniała personel, nie mogąc znaleźć klientów na swoje procesy technologiczne. Co się zmieniło i czy firma zagrozi TSMC?
Samsung właśnie wygrywa wyścig o pamięć dla sztucznej inteligencji. Układy HBM4 znajdują się w masowej produkcji
Samsung oficjalnie ogłosił, że jako pierwszy producent na świecie rozpoczął masową produkcję i komercyjną wysyłkę pamięci HBM4 do klientów. To ważny moment dla firmy, która przez ostatnie miesiące walczyła o odrobienie strat względem konkurencji w segmencie wysokoprzepustowych pamięci dla AI. Nowa generacja HBM oferuje nie tylko wyższe prędkości transferu danych, ale też znaczące usprawnienia w zakresie efektywności energetycznej i zarządzania ciepłem.
SK Hynix przybliża otwarcie nowych fabryk o trzy miesiące. Inwestycja za 407 mld dolarów ma zaspokoić popyt na pamięci AI
SK Hynix postanowił przyspieszyć swoje plany produkcyjne. Firma ogłosiła, że pierwsza fabryka w kompleksie Yongin otworzy się o trzy miesiące wcześniej. czyli już w lutym 2027 roku, podczas gdy zakład M15X w Cheongju rozpocznie produkcję wafli krzemowych dla pamięci HBM już w przyszłym miesiącu. To bezpośrednia odpowiedź na sytuację, którą dyrektor generalny SK Hynix America, Sungsoo Ryu, określił słowami "ogromny i niesamowity popyt".
NVIDIA Vera Rubin Superchip - omówienie platformy AI o pięciokrotnie wyższej wydajności niż Grace Blackwell
Jakiś czas temu na konferencji GTC w Waszyngtonie CEO NVIDIA, Jensen Huang, zaprezentował prototyp testowy platformy NVIDIA Vera Rubin Superchip. Teraz, podczas targów CES 2026, ku zaskoczeniu wielu, przedstawiono szerokie omówienie tej zaawansowanej platformy AI, której chipy są już w pełnej produkcji w zakładach TSMC. Sprawdźmy, jakie możliwości oferuje akcelerator AI o wymiarach porównywalnych do płyty głównej w formacie ATX.
AMD i Eviden budują Alice Recoque, drugi europejski superkomputer eksaskalowy za 554 miliony euro
Europa przez lata patrzyła z zazdrością, jak USA notują kolejne rekordy w wyścigu superkomputerów eksaskalowych. Frontier, El Capitan, Aurora dominowały rankingi TOP500, podczas gdy Stary Kontynent dopiero budował swój pierwszy system przekraczający barierę eksaflopa. Teraz, zaledwie dwa miesiące po uruchomieniu w Niemczech Jupitera, przychodzi czas na kolejnego europejskiego giganta. AMD wraz z francuskim Eviden ogłosiły właśnie budowę Alice Recoque.
Samsung przygotowuje masową produkcję pamięci HBM4, GDDR7 i DDR5 nowej generacji oraz stabilną produkcję w litografii GAA 2 nm
Całkiem niedawno pisaliśmy o tym, że Micron i SK hynix pracują nad szybszymi wariantami pamięci HBM4, podczas gdy Samsung wyraźnie pozostawał w tyle. Jednak, jak to często bywa w tej branży, sytuacja szybko uległa zmianie. Samsung dołączył do rywali, zapowiadając własne, ulepszone moduły HBM4, a przy okazji zaprezentował również postępy w rozwoju nowych generacji pamięci GDDR7 i DDR5. Sprawdźmy więc, co dokładnie firma przygotowała.
Samsung HBM4E to 13 Gbps na pin i 3,25 TB/s przepustowości. Specyfikacje pamięci siódmej generacji ujawnione
Wyścig o najpotężniejsze pamięci dla akceleratorów AI przyspiesza z każdym miesiącem. Samsung Electronics właśnie ujawnił ambitne plany dotyczące siódmej generacji pamięci typu HBM. W obecnej generacji HBM3E zmagał się z problemami kwalifikacyjnymi, tym razem chce odwrócić losy rywalizacji i jako pierwszy publicznie zaprezentował docelowe parametry HBM4E. Liczby robią wrażenie, a stawka jest wysoka, mają się one znaleźć w akceleratorach NVIDII z rodziny Rubin.
NVIDIA wprowadza zmiany w chipach Vera Rubin dla rynku AI w obawie przed akceleratorami AMD Instinct MI450
Chipy NVIDIA Vera Rubin, według najnowszych doniesień, są już w fazie preprodukcji w zakładach TSMC. Równocześnie AMD planuje wprowadzenie akceleratorów Instinct MI450, które pod względem specyfikacji mogą realnie zagrozić dominującej pozycji NVIDII na rynku układów AI. Według nieoficjalnych informacji firma zwiększyła przepustowość pamięci HBM4, a także (podobno) parametr TGP całego układu, choć w tym zakresie pojawiają się pewne nieścisłości.
Micron rozpoczął wysyłki próbnych, wydajniejszych kości HBM4 oraz pracuje nad jeszcze szybszymi pamięciami GDDR7
Choć Micron jako ostatni rozpoczął dostawy pamięci GDDR7 dla układów NVIDIA z rodziny Blackwell, nie oznacza to, że pozostaje w tyle za konkurencją. Wręcz przeciwnie - firma poinformowała o pracach nad szybszymi modułami GDDR7 osiągającymi transfer danych do 40 Gb/s, a także rozpoczęła wysyłkę próbek wydajniejszych kości HBM4 o przepustowości 2,8 TB/s. Dodatkowo wiadomo, że firma wraz z TSMC przygotowuje się do opracowania kości HBM4E.
SK Hynix wyprzedza Samsunga i Microna i jako pierwszy na świecie produkuje rewolucyjne pamięci HBM4. Wydajność wzrośnie o 69%
Rynek pamięci dla segmentu AI oraz HPC rozwija się w błyskawicznym tempie, a zapotrzebowanie na coraz wyższą przepustowość nieustannie rośnie. Producenci prześcigają się w dostarczaniu nowszych i wydajniejszych rozwiązań, które sprostają wymaganiom kolejnych generacji akceleratorów. Standard HBM, czyli High Bandwidth Memory, stał się podstawowym elementem tej układanki. Jego ewolucja jest niezbędna do dalszego postępu w dziedzinie sztucznej inteligencji.
Samsung w desperacji. Koreańska firma gotowa na cenową wojnę z SK Hynix i Micron o lukratywne kontrakty NVIDIĄ na pamięci HBM4
Rynek akceleratorów AI to obecnie jeden z najbardziej dochodowych i najszybciej rozwijających się segmentów branży technologicznej. Ważnym komponentem tych urządzeń są pamięci o wysokiej przepustowości, znane jako HBM. Walka o kontrakty na ich dostawę jest niezwykle zacięta. Producenci, którzy sprostają najwyższym wymaganiom wydajnościowym i jakościowym, mogą liczyć na ogromne zyski. Pozostali muszą pogodzić się z utratą udziałów w rynku.
Poznaliśmy szczegóły specyfikacji pamięci od HBM4 do HBM8. Wbudowane chłodzenie, wysoka przepustowość i gęstość pamięci
Wielowarstwowe pamięci operacyjne HBM towarzyszą nam od lat. Choć miały krótki epizod w sprzęcie konsumenckim, na przykład w kartach graficznych z serii AMD Radeon Vega, to jednak niepodzielnie dominują w segmencie serwerowym. Teraz poznaliśmy szczegóły specyfikacji nadchodzących pamięci HBM4, a także plany dotyczące kolejnych generacji, sięgające aż do HBM8, która ma już mieć wbudowane chłodzenie, ale również dosłownie kosmiczne parametry.
JEDEC ogłasza specyfikację kości pamięci HBM4, które zaoferują dwukrotnie wyższą przepustowość dla akceleratorów AI
Organizacja JEDEC, światowy lider w opracowywaniu standardów dla przemysłu mikroelektronicznego, opublikowała finalną specyfikację pamięci DRAM układanej w stosy – HBM4 (JESD270-4). Nowa generacja pamięci operacyjnej, przeznaczona dla wysokowydajnych akceleratorów graficznych, oferuje m.in. dwukrotnie większą przepustowość oraz lepszą efektywność energetyczną w porównaniu do poprzedników. Sprawdźmy zatem, co jeszcze zostało ulepszone w nowej iteracji.
SK hynix prezentuje na NVIDIA GTC 2025 przełomowe technologie pamięci przeznaczone dla AI
Podczas konferencji GTC 2025 SK hynix zaprezentował 12-warstwową pamięć HBM3E oraz SOCAMM, nowy standard dla serwerów AI. Nowe moduły zapewnią 60% wyższą wydajność i ponad 2 TB/s przepustowości, wspierając rozwój nowej generacji AI. SK hynix ogłosił również, że masowa produkcja HBM4 ruszy w drugiej połowie 2025 roku, a technologia ta znajdzie zastosowanie w przyszłych układach NVIDIA Rubin.
NVIDIA zapowiada Rubin i Rubin Ultra, nową generację GPU i CPU zapewniającących wysoką wydajność w obliczeniach
Podczas konferencji GTC 2025 Jensen Huang zaprezentował architekturę Rubin i Rubin Ultra, które mają zrewolucjonizować rynek HPC i AI. Nowe układy GPU zaoferują 100 PFLOPS mocy obliczeniowej FP4 oraz 1 TB pamięci HBM4, a ich działanie wspierać będą procesory Vera z 88 rdzeniami. Rubin Ultra ma zastąpić serię Blackwell, oferując nawet 40% lepszą wydajność. NVIDIA nie zwalnia tempa – premiera przewidziana jest na 2026 rok.
NVIDIA Rubin - prace nad nową generacją akceleratorów AI przebiegają sprawnie. Dostawy pamięci HBM4 już wkrótce
Akceleratory AI bazujące na architekturze Blackwell wciąż są postrzegane jako relatywna nowość. Do odbiorców trafiła bowiem dopiero pierwsza partia serwerów wykorzystujących to rozwiązanie. NVIDIA nie zwalnia jednak tempa. Trwają już obecnie zaawansowane prace nad architekturą kolejnej generacji. Są przesłanki, by sądzić, że akceleratory Rubin zadebiutują szybciej niż oczekiwano, choć raczej nie wyprą one na razie z rynku układów Blackwell.
Samsung pracuje nad technologią, która pozwoli umieścić pamięć HBM bezpośrednio na procesorze lub układzie graficznym
Innowacyjność w branży nowych technologii sprawia, że mamy do dyspozycji coraz wydajniejszy sprzęt, który w dodatku cechuje się lepszą efektywnością energetyczną. Także rynek pamięci HBM podlega tym przekształceniom. Firma Samsung planuje już wkrótce wprowadzić do swojej oferty rozwiązania sprzętowe, które zakładają umieszczenie chipów pamięci bezpośrednio na procesorze lub układzie graficznym. Takie podejście będzie miało szereg zalet.
SK hynix ujawnia pierwsze oficjalne informacje o projekcie pamięci operacyjnych HBM następnej generacji
Obecnie na rynku akceleratorów AI dominują pamięci HBM3 i HBM3E. SK hynix, jako jeden z największych dostawców tego rodzaju pamięci operacyjnej, nie spoczywa na laurach i stale poszukuje nowych, innowacyjnych rozwiązań. Firma właśnie podzieliła się oficjalnymi informacjami dotyczącymi budowy przyszłych kości pamięci 6. i 7. generacji. W ramach tych planów producent zamierza wprowadzić szereg ulepszeń, w tym m.in. przeniesienie kontrolera pamięci operacyjnej do pakietu kości HBM4E.
NVIDIA R100 Rubin - pierwsze informacje na temat kolejnej generacji akceleratorów pod obliczenia AI
W marcu tego roku NVIDIA zaprezentowała nową generację akceleratorów dla obliczeń AI, opartych na architekturze Blackwell. W jej skład wchodzą przede wszystkim układy NVIDIA B100 oraz B200, a także superchip Grace-Blackwell GB200. Podczas marcowego wystąpienia dowiedzieliśmy się, że układ B200 jest w rzeczywistości akceleratorem o budowie MCM, wyposażonym w 192 GB pamięci HBM3e. Tymczasem w sieci już pojawiają się pierwsze informacje na temat kolejnej generacji, z akceleratorem NVIDIA R100 na czele.
SK hynix podpisało ważną umowę ramową z TSMC na potrzeby badań i produkcji pamięci HBM4
Pamięć HBM, choć wcześniej stosowana była również w konsumenckich układach, obecnie stanowi główny typ pamięć VRAM dla układów profesjonalnych oraz chipów wykorzystywanych w sztucznej inteligencji. Sk hynix ogłosiło, że podpisało kluczową umowę badawczo-rozwojową z tajwańskim TSMC. Ta współpraca ma na celu wprowadzenie licznych ulepszeń w produkcji stosów pamięci HBM4, co m.in. ma przyczynić się do poprawy ich parametrów końcowych.
SK hynix planuje wybudować nowy ośrodek produkcyjny w Stanach Zjednoczonych. Zajmie się on pakowaniem pamięci HBM
Dywersyfikacja produkcji chipów wymaga budowania fabryk poza regionem Dalekiego Wschodu. Takie działania podejmuje między innymi TSMC. Wśród tych firm znajdują się jednak też inne podmioty. Jednym z nich jest południowokoreański SK hynix, który ogłosił powstanie nowego ośrodka produkcyjnego w Stanach Zjednoczonych. Co ważne, będzie to pierwsza tego typu fabryka w USA, zatem przedsięwzięcie pozytywnie wpłynie na stabilność branży.
SK hynix nie nadąża z produkcją pamięci HBM. Zapasy przewidziane na 2024 rok zostały już wyprzedane
Sztuczna inteligencja jest ciągle w trendzie wznoszącym. To między innymi z tego powodu firmy zajmujące się produkcją komponentów, wykorzystywanych w szeroko pojętym segmencie centrów danych, nie mogą narzekać na brak zamówień. Dotyczy to również pamięci HBM, którą produkuje między innymi koreański SK hynix. Okazuje się, że także w tym przypadku klienci muszą ustawiać się w długie kolejki i nic nie wskazuje na to, że w najbliższej przyszłości to się zmieni.
SK hynix pracuje z NVIDIĄ nad nowym projektem układu graficznego. Kluczowe będzie w nim umiejscowienie pamięci HBM4
Standardowa konstrukcja współczesnych GPU zakłada umiejscowienie stosów pamięci HBM w pobliżu procesora graficznego. Elementy te są następnie łączone za pośrednictwem szyny 1024-bitowej. Firmy SK hynix i NVIDIA pracują nad poważnymi zmianami w tej architekturze. Są one na tyle duże, że będą one miały wpływ nie tylko na sposób łączenia poszczególnych komponentów na płytce drukowanej, ale także wymuszą przekształcenia w procesie produkcyjnym.



























NVIDIA GeForce RTX 5000 - statystyki cenowe kart graficznych Blackwell na kwiecień 2026. Jak wyglądają kwoty na tle MSRP?
Test procesorów AMD Ryzen 7 7800X3D vs Ryzen 7 9800X3D vs Ryzen 9850X3D - Czy warto dopłacać do szybszych modeli?
Test wydajności Pragmata z Path Tracing - Klęka nawet GeForce RTX 5090! Lepiej przygotujcie upscaling i generator klatek
Tak będą wyglądać testy kart graficznych od Tyrion83. Tylko uczciwe, obiektywne i realne scenariusze
ASUS ROG Equalizer to nowy przewód 12V-2x6. Producent obiecuje niższe temperatury i równy rozkład prądu