Firma xAI Elona Muska podwaja rozmiary swojego gigantycznego superkomputera służącego do treningu sztucznej inteligencji
Choć Elon Musk początkowo odnosił się bardzo nieprzychylnie do rozwoju sztucznej inteligencji, to ostatecznie zdecydował się na olbrzymie inwestycje w ten segment rynku. Jego firma xAI operuje obecnie jednym z największych klastrów serwerowych na świecie. Co ważne, multimiliarder nie powiedział w tej kwestii jeszcze ostatniego słowa. Trwa bowiem właśnie dalsze rozbudowanie potencjału sprzętowego przedsiębiorstwa. Bazą są akceleratory Hopper.
Należąca do Elona Muska firma xAI już wkrótce będzie dysponowała 200 tys. akceleratorów NVIDIA H100. Mowa tutaj o gigantycznym superkomputerze AI, który jest podstawą dla dużego modelu językowego Grok 3.
NVIDIA ponownie rozbija bank. Akceleratory dla sztucznej inteligencji z serii Blackwell sprzedają się jak ciepłe bułeczki
Superkomputer Colossus, który należy do firmy xAI, składa się ze 100 tys. układów NVIDIA H100. Jest to prawdopodobnie największe tego typu przedsięwzięcie na świecie. Serwery są wykorzystywane obecnie do treningu dużego modelu językowego Grok 3, który napędza między innymi chatbota testowanego na platformie X. Jak podaje jednak NVIDIA, rozbudowa systemu komputerowego xAI jeszcze się nie zakończyła. Trwają już prace, które mają podwoić liczbę wykorzystywanych akceleratorów H100. To oznacza, że po ich zakończeniu Colossus będzie składał się z zawrotnej liczby 200 tys. układów.
Grok 3 - kolejna generacja modelu AI może się okazać rewolucyjna. Elon Musk wykorzysta tysiące układów NVIDIA H100
Warto też odnotować, że proces wdrażania akceleratorów przez firmy NVIDIA oraz xAI jest rekordowo szybki. Colossus ruszył po zaledwie 122 dniach od rozpoczęcia prac, podczas gdy zazwyczaj podobne przedsięwzięcia są realizowane przez co najmniej kilkanaście miesięcy. Trening modelu Grok rozpoczął się z kolei już po 19 dniach o dostarczenia pierwszego racku serwerowego. Tempo prac zatem imponuje, choć należy mieć na uwadze, że prawdopodobnie wiązało się to z dodatkowymi kosztami po stronie xAI.
Powiązane publikacje

ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
22
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60
Nowatorski interfejs mózg-komputer od Georgia Tech może zmienić sposób, w jaki ludzie komunikują się z technologią i otoczeniem
4