Firma xAI Elona Muska podwaja rozmiary swojego gigantycznego superkomputera służącego do treningu sztucznej inteligencji
Choć Elon Musk początkowo odnosił się bardzo nieprzychylnie do rozwoju sztucznej inteligencji, to ostatecznie zdecydował się na olbrzymie inwestycje w ten segment rynku. Jego firma xAI operuje obecnie jednym z największych klastrów serwerowych na świecie. Co ważne, multimiliarder nie powiedział w tej kwestii jeszcze ostatniego słowa. Trwa bowiem właśnie dalsze rozbudowanie potencjału sprzętowego przedsiębiorstwa. Bazą są akceleratory Hopper.
Należąca do Elona Muska firma xAI już wkrótce będzie dysponowała 200 tys. akceleratorów NVIDIA H100. Mowa tutaj o gigantycznym superkomputerze AI, który jest podstawą dla dużego modelu językowego Grok 3.
NVIDIA ponownie rozbija bank. Akceleratory dla sztucznej inteligencji z serii Blackwell sprzedają się jak ciepłe bułeczki
Superkomputer Colossus, który należy do firmy xAI, składa się ze 100 tys. układów NVIDIA H100. Jest to prawdopodobnie największe tego typu przedsięwzięcie na świecie. Serwery są wykorzystywane obecnie do treningu dużego modelu językowego Grok 3, który napędza między innymi chatbota testowanego na platformie X. Jak podaje jednak NVIDIA, rozbudowa systemu komputerowego xAI jeszcze się nie zakończyła. Trwają już prace, które mają podwoić liczbę wykorzystywanych akceleratorów H100. To oznacza, że po ich zakończeniu Colossus będzie składał się z zawrotnej liczby 200 tys. układów.
Grok 3 - kolejna generacja modelu AI może się okazać rewolucyjna. Elon Musk wykorzysta tysiące układów NVIDIA H100
Warto też odnotować, że proces wdrażania akceleratorów przez firmy NVIDIA oraz xAI jest rekordowo szybki. Colossus ruszył po zaledwie 122 dniach od rozpoczęcia prac, podczas gdy zazwyczaj podobne przedsięwzięcia są realizowane przez co najmniej kilkanaście miesięcy. Trening modelu Grok rozpoczął się z kolei już po 19 dniach o dostarczenia pierwszego racku serwerowego. Tempo prac zatem imponuje, choć należy mieć na uwadze, że prawdopodobnie wiązało się to z dodatkowymi kosztami po stronie xAI.
Powiązane publikacje

TSMC zapowiada CoPoS i PLP. Znacząca ewolucja, która pozwoli uzyskać więcej miejsca dla chipów
21
PCI-SIG finalizuje specyfikację PCI Express 7.0. Interfejs przygotowany jest na potrzeby systemów AI i cloud computing
40
Naukowcy zbudowali robota, który gra w badmintona lepiej niż większość ludzi. Zobacz, co potrafi ANYmal‑D od ETH Zurich
37
Meta wydaje miliardy. Laboratorium SI, inwestycja w Scale AI i dążenie do wyjścia poza ograniczenia LLaMA
15