Meta prezentuje modele Llama 4. Nowa generacja otwartoźródłowej AI przetwarza tekst, obraz i dźwięk
Sztuczna inteligencja rozwija się w szybkim tempie, a jednym z najważniejszych trendów jest łączenie różnych typów danych w ramach jednego modelu. Meta zaprezentowała serię Llama 4, czyli nową rodzinę modeli AI, które potrafią jednocześnie przetwarzać tekst, obrazy, a w przyszłości także inne formy informacji. W artykule przyglądamy się bliżej architekturze, wersjom modelu, a także celom, jakie firma stawia przed tą otwartą platformą.
Llama 4 to początek nowej ery natywnie multimodalnych innowacji AI. W skład nowej serii wchodzą modele Scout, Maverick i Behemoth.
Meta AI trafia w końcu do Europy, ale w ograniczonej wersji i bez funkcji generowania obrazów
Meta ogłosiła wprowadzenie najnowszej serii modeli sztucznej inteligencji Llama 4, które stanowią znaczący krok naprzód w dziedzinie AI. Nowe modele charakteryzują się natywną multimodalnością. Oznacza to, że zostały zaprojektowane do jednoczesnego przetwarzania różnych typów danych, takich jak tekst, obrazy, wideo i dźwięk.
W skład rodziny Llama 4 wchodzą trzy główne modele:
- Llama 4 Scout to model o 17 miliardach aktywnych parametrów, wykorzystujący architekturę z 16 ekspertami. Scout oferuje kontekst o długości do 10 milionów tokenów. To pozwala na efektywne przetwarzanie dużych zbiorów danych.
- Llama 4 Maverick to większy model z 17 miliardami aktywnych parametrów i 128 ekspertami, posiadający łącznie 400 miliardów parametrów. Maverick wyróżnia się wysoką wydajnością w zadaniach związanych z kodowaniem i rozumowaniem.
- Llama 4 Behemoth to najpotężniejszy z modeli, wciąż w fazie treningu, z 288 miliardami aktywnych parametrów i łączną liczbą około 2 bilionów parametrów. Behemoth ma na celu ustanowienie nowych standardów w dziedzinie modeli językowych.
Meta miała wykorzystywać do treningu sztucznej inteligencji książki ściągnięte nielegalnie za pomocą sieci torrent
Wszystkie modele Llama 4 wykorzystują architekturę Mixture of Experts (MoE), która pozwala na dynamiczne aktywowanie tylko wybranych części modelu w zależności od zadania. Takie podejście zwiększa efektywność obliczeniową i umożliwia lepsze skalowanie modeli. Meta planuje udostępnić modele Llama 4 jako oprogramowanie open-source. Pozwoli to społeczności badawczej i deweloperom na wykorzystanie ich możliwości w wielu różnych aplikacjach. Wprowadzenie Llama 4 przez Meta stanowi istotny krok w rozwoju sztucznej inteligencji, otwierając nowe możliwości dla aplikacji wymagających zaawansowanego przetwarzania różnorodnych danych.
Powiązane publikacje

Kolejna usługa od Google wkrótce straci ważność. Gry bez instalacji na Androidzie odejdą jeszcze w 2025 roku
2
AMD ROCm 7 - premiera platformy obliczeniowej dla sztucznej inteligencji i rynku HPC, która przynosi znaczy wzrost wydajności
11
Bielik AI z oficjalnym wsparciem NVIDIA. Polski model językowy wkracza do europejskiej ekstraklasy
36
Android 16 już dostępny, ale bez Material 3 Expressive. Nadchodzą powiadomienia na żywo i alternatywa dla Samsung DeX
24