Maia 100 - autorski akcelerator od Microsoftu zaprezentowany. Nowość zasili usługi AI na platformie Azure
Zapotrzebowanie na układy scalone do obsługi sztucznej inteligencji (a dokładniej dużych modeli językowych - LLM) wciąż wzrasta, więc kolejne przedsiębiorstwa zastanawiają się, jak mu sprostać. Firma Microsoft zaprezentowała właśnie autorski akcelerator nazwany Maia 100, którego zadaniem jest właśnie wydajna obsługa omawianych rozwiązań na platformie Azure. Nie wiadomo jednak, czy gigant z Redmond zatrzyma nowość dla siebie, czy udostępni innym możliwość jej zakupu.
Microsoft na wydarzeniu Hot Chips 2024 zaprezentował swój pierwszy układ, który będzie zasilał platformę Azure. Maia 100 będzie głównie zajmować się wydajną obsługą usług, które związane są ze sztuczną inteligencją.
NVIDIA B20 - trwają prace nad akceleratorem AI z rodziny Blackwell, który będzie mógł bez przeszkód zadebiutować w Chinach
Akcelerator Maia 100 został wykonany przy użyciu 5-nanometrowego procesu technologicznego firmy TSMC wraz z wykorzystaniem technologii pakowania CoWoS-S. Jego powierzchnia, na której znalazło się miejsce na 64 GB pamięci w standardzie HBM2E o przepustowości 1,8 TB/s, wynosi 820 mm². Cały chip zawiera w sobie 105 mld tranzystorów. Nowość od Microsoftu może pracować przy TDP wynoszącym 500 W, natomiast podczas większego zapotrzebowania wartość ta jest w stanie wzrosnąć nawet do 700 W. Maia 100 składa się z 16 klastrów, z których każdy zawiera 4 kafelki. Klastry komunikują się między sobą dzięki technologii NoC (Network on Chip).
NVIDIA R100 Rubin - pierwsze informacje na temat kolejnej generacji akceleratorów pod obliczenia AI
Pamięć podręczna pierwszego i drugiego poziomu wynosi około 500 MB, co jest naprawdę dobrą wartością. Układy można połączyć ze sobą do wspólnej pracy - każdy z nich korzysta z architektury sieciowej Ethernet (12 kanałów x 400 GbE), co pomaga w efektywnej wymianie danych. Warto zaznaczyć, że chipy mogą skorzystać ze specjalnego systemu chłodzenia cieczą. Taka konfiguracja ma pozwolić nie tylko na wydajną obsługę wspomnianych dużych modeli językowych, ale również na ich szkolenie. Dostępny jest także pakiet Maia Software Development Kit, który ma za zadanie pomóc w zaadaptowaniu modeli opartych na PyTorch lub Triton do usługi Azure OpenAI. Rozwój sztucznej inteligencji stale więc tylko przyspiesza, choć w tym konkretnym wypadku nie wiadomo (jak wspomniano we wstępie), czy Microsoft zamierza jakkolwiek udostępnić chip Maia 100 dla innych firm.
Powiązane publikacje

AMD Ryzen Threadripper (PRO) 9000WX - Kolejne poszlaki wskazują na zbliżającą się premierę procesorów HEDT Zen 5
13
Procesor AMD Ryzen 7 9800X3D do kupienia w najniższej cenie od premiery. Świetna jednostka do gier dostępna poniżej MSRP
90
Intel 18A przyciąga uwagę. NVIDIA i Broadcom testują nowy proces, otwierając drogę do potencjalnej współpracy
23
TSMC zapowiada SoW-X, czyli nową erę pakowania chipów dla AI i HPC. Masowa produkcja ruszy już w 2027 roku
7