NVIDIA zarezerwowała duże ilości pamięci HBM3e. Będzie wykorzystywana przez nadchodzące układy H200
W przyszłym roku NVIDIA wprowadzi na rynek akceleratory H200. Oczywiście cały proces wymaga odpowiednich przygotowań. Ich częścią jest zamówienie wystarczającej liczby podzespołów. Dotyczy to także pamięci HBM3e, którą omawiana konstrukcja będzie wykorzystywała. Koreańskie źródła prasowe donoszą, że amerykańska firma dokonała już odpowiednich zakupów w ramach przedsprzedaży. Ma to zapewnić większą podaż układów w przyszłości.
NVIDIA zakupiła w przedsprzedaży od firm Micron i SK hynix duże ilości pamięci HBM3e. Amerykańska spółka chce zwiększyć podaż swoich produktów służących do obsługi sztucznej inteligencji.
SK hynix dostarcza już próbki pamięci HBM3E do partnerów. Na liście między innymi NVIDIA
Transakcje opiewają na łączną kwotę 1,3 mld dolarów. Odpowiednie zamówienia zostały złożone w przedsiębiorstwach Micron i SK hynix. W celu rezerwacji pamięci, NVIDIA miała dokonać wpłaty "z góry" w wysokości od 540 do 770 mln dolarów. Wcześniejsza rezerwacja podzespołów wiąże się bowiem z odpowiednimi kosztami. Amerykańskiej firmie bardzo zależy na tym, żeby zapewnić wyższą podaż nowych akceleratorów w 2024 roku, a bez zamówienia odpowiedniej liczby chipów pamięci nie będzie to możliwe.
NVIDIA H200 - nowy akcelerator z pamięcią HBM3e. Firma zapowiada także superkomputer Jupiter z układami GH200
Pamięć HBM3e swoje zastosowanie znajdzie zarówno w układach H200, jak i platformach GH200, które składają się z procesorów Grace i akceleratorów Hopper. Biorąc pod uwagę panujący od pewnego czasu boom na sztuczną inteligencję, amerykańska firma raczej nie będzie narzekała na brak zamówień. To sprawia, że rezerwacja i zakup w przedsprzedaży pamięci HBM3e jest bardzo dobrym ruchem, który pozwoli nie tylko na dostarczenie zakładanej liczby układów na rynek, ale także pozwoli docelowo jeszcze bardziej zwiększyć przychody spółki.