Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Firma xAI Elona Muska podwaja rozmiary swojego gigantycznego superkomputera służącego do treningu sztucznej inteligencji

Łukasz Stefaniak | 29-10-2024 14:30 |

Firma xAI Elona Muska podwaja rozmiary swojego gigantycznego superkomputera służącego do treningu sztucznej inteligencjiChoć Elon Musk początkowo odnosił się bardzo nieprzychylnie do rozwoju sztucznej inteligencji, to ostatecznie zdecydował się na olbrzymie inwestycje w ten segment rynku. Jego firma xAI operuje obecnie jednym z największych klastrów serwerowych na świecie. Co ważne, multimiliarder nie powiedział w tej kwestii jeszcze ostatniego słowa. Trwa bowiem właśnie dalsze rozbudowanie potencjału sprzętowego przedsiębiorstwa. Bazą są akceleratory Hopper.

Należąca do Elona Muska firma xAI już wkrótce będzie dysponowała 200 tys. akceleratorów NVIDIA H100. Mowa tutaj o gigantycznym superkomputerze AI, który jest podstawą dla dużego modelu językowego Grok 3.

Firma xAI Elona Muska podwaja rozmiary swojego gigantycznego superkomputera służącego do treningu sztucznej inteligencji [1]

NVIDIA ponownie rozbija bank. Akceleratory dla sztucznej inteligencji z serii Blackwell sprzedają się jak ciepłe bułeczki

Superkomputer Colossus, który należy do firmy xAI, składa się ze 100 tys. układów NVIDIA H100. Jest to prawdopodobnie największe tego typu przedsięwzięcie na świecie. Serwery są wykorzystywane obecnie do treningu dużego modelu językowego Grok 3, który napędza między innymi chatbota testowanego na platformie X. Jak podaje jednak NVIDIA, rozbudowa systemu komputerowego xAI jeszcze się nie zakończyła. Trwają już prace, które mają podwoić liczbę wykorzystywanych akceleratorów H100. To oznacza, że po ich zakończeniu Colossus będzie składał się z zawrotnej liczby 200 tys. układów.

Firma xAI Elona Muska podwaja rozmiary swojego gigantycznego superkomputera służącego do treningu sztucznej inteligencji [2]

Grok 3 - kolejna generacja modelu AI może się okazać rewolucyjna. Elon Musk wykorzysta tysiące układów NVIDIA H100

Warto też odnotować, że proces wdrażania akceleratorów przez firmy NVIDIA oraz xAI jest rekordowo szybki. Colossus ruszył po zaledwie 122 dniach od rozpoczęcia prac, podczas gdy zazwyczaj podobne przedsięwzięcia są realizowane przez co najmniej kilkanaście miesięcy. Trening modelu Grok rozpoczął się z kolei już po 19 dniach o dostarczenia pierwszego racku serwerowego. Tempo prac zatem imponuje, choć należy mieć na uwadze, że prawdopodobnie wiązało się to z dodatkowymi kosztami po stronie xAI.

Źródło: NVIDIA, WCCFTech
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 37

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.