Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

hbm4e

Samsung HBM4E debiutuje na NVIDIA GTC 2026. 16 Gb/s, 4 TB/s przepustowości i 48 GB na stos dla platformy Rubin Ultra

Samsung HBM4E debiutuje na NVIDIA GTC 2026. 16 Gb/s, 4 TB/s przepustowości i 48 GB na stos dla platformy Rubin Ultra

Targi NVIDIA GTC 2026 to nie tylko pokaz kart graficznych i nowych platform obliczeniowych. Dla producentów pamięci to szansa na udowodnienie, że mają coś do zaoferowania przemysłowi AI. Samsung przyjechał do San Jose z szerokim portfolio i jedną premierą, która przyciąga szczególną uwagę, czyli pamięcią HBM4E, po raz pierwszy pokazaną publicznie. Jeszcze nie trafiła do masowej produkcji, ale pokazuje kierunek podążania następnej generacji infrastruktury AI.

Samsung może wykorzystać proces technologiczny 2 nm do produkcji układów bazowych dla pamięci HBM4E

Samsung może wykorzystać proces technologiczny 2 nm do produkcji układów bazowych dla pamięci HBM4E

Rynek pamięci operacyjnej dla akceleratorów sztucznej inteligencji rozwija się bardzo dynamicznie, a konkurencja w tym segmencie stale rośnie. Do najnowszych układów już wkrótce trafi pamięć HBM4, tymczasem w sieci coraz częściej pojawiają się informacje o kolejnej generacji - HBM4E. Według najnowszych doniesień Samsung planuje wykorzystać litografię 2 nm do produkcji układów bazowych dla tej pamięci, aby utrzymać przewagę technologiczną w tym segmencie.

Pamięć dla AI przyspiesza o 60 proc. Rambus pokazał kontroler HBM4E, na który czekają NVIDIA i AMD

Pamięć dla AI przyspiesza o 60 proc. Rambus pokazał kontroler HBM4E, na który czekają NVIDIA i AMD

Przepustowość pamięci od kilku lat jest jednym z głównych ograniczeń wydajności akceleratorów AI. Im większy model językowy, tym więcej danych procesor musi przetwarzać w krótkim czasie, i tym bardziej widoczna staje się przepaść między możliwościami obliczeniowymi układów a tym, jak szybko pamięć nadąża z dostarczaniem danych. Rambus, firma specjalizująca się w licencjonowaniu IP dla układów scalonych, ogłosiła właśnie kolejny krok w tym wyścigu.

Samsung HBM4E to 13 Gbps na pin i 3,25 TB/s przepustowości. Specyfikacje pamięci siódmej generacji ujawnione

Samsung HBM4E to 13 Gbps na pin i 3,25 TB/s przepustowości. Specyfikacje pamięci siódmej generacji ujawnione

Wyścig o najpotężniejsze pamięci dla akceleratorów AI przyspiesza z każdym miesiącem. Samsung Electronics właśnie ujawnił ambitne plany dotyczące siódmej generacji pamięci typu HBM. W obecnej generacji HBM3E zmagał się z problemami kwalifikacyjnymi, tym razem chce odwrócić losy rywalizacji i jako pierwszy publicznie zaprezentował docelowe parametry HBM4E. Liczby robią wrażenie, a stawka jest wysoka, mają się one znaleźć w akceleratorach NVIDII z rodziny Rubin.

Micron rozpoczął wysyłki próbnych, wydajniejszych kości HBM4 oraz pracuje nad jeszcze szybszymi pamięciami GDDR7

Micron rozpoczął wysyłki próbnych, wydajniejszych kości HBM4 oraz pracuje nad jeszcze szybszymi pamięciami GDDR7

Choć Micron jako ostatni rozpoczął dostawy pamięci GDDR7 dla układów NVIDIA z rodziny Blackwell, nie oznacza to, że pozostaje w tyle za konkurencją. Wręcz przeciwnie - firma poinformowała o pracach nad szybszymi modułami GDDR7 osiągającymi transfer danych do 40 Gb/s, a także rozpoczęła wysyłkę próbek wydajniejszych kości HBM4 o przepustowości 2,8 TB/s. Dodatkowo wiadomo, że firma wraz z TSMC przygotowuje się do opracowania kości HBM4E.

NVIDIA Feynman - nowa architektura dla akceleratorów zadebiutuje w 2028 roku wraz z nową generacją pamięci HBM

NVIDIA Feynman - nowa architektura dla akceleratorów zadebiutuje w 2028 roku wraz z nową generacją pamięci HBM

NVIDIA, jako lider rynku w projektowaniu układów graficznych, dynamicznie rozwija się w sektorze akceleratorów AI. Niedawno pierwsze układy z rodziny Blackwell trafiły do klientów, a już wiadomo, że prace nad chipami z serii Rubin wyprzedzają harmonogram. Co więcej, w przygotowaniu są także układy Rubin Ultra. Teraz NVIDIA poszła o krok dalej, ujawniając nazwę kolejnej generacji wysokowydajnych procesorów – Feynman.

SK hynix ujawnia pierwsze oficjalne informacje o projekcie pamięci operacyjnych HBM następnej generacji

SK hynix ujawnia pierwsze oficjalne informacje o projekcie pamięci operacyjnych HBM następnej generacji

Obecnie na rynku akceleratorów AI dominują pamięci HBM3 i HBM3E. SK hynix, jako jeden z największych dostawców tego rodzaju pamięci operacyjnej, nie spoczywa na laurach i stale poszukuje nowych, innowacyjnych rozwiązań. Firma właśnie podzieliła się oficjalnymi informacjami dotyczącymi budowy przyszłych kości pamięci 6. i 7. generacji. W ramach tych planów producent zamierza wprowadzić szereg ulepszeń, w tym m.in. przeniesienie kontrolera pamięci operacyjnej do pakietu kości HBM4E.

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.