Meta prezentuje modele Llama 4. Nowa generacja otwartoźródłowej AI przetwarza tekst, obraz i dźwięk
Sztuczna inteligencja rozwija się w szybkim tempie, a jednym z najważniejszych trendów jest łączenie różnych typów danych w ramach jednego modelu. Meta zaprezentowała serię Llama 4, czyli nową rodzinę modeli AI, które potrafią jednocześnie przetwarzać tekst, obrazy, a w przyszłości także inne formy informacji. W artykule przyglądamy się bliżej architekturze, wersjom modelu, a także celom, jakie firma stawia przed tą otwartą platformą.
Llama 4 to początek nowej ery natywnie multimodalnych innowacji AI. W skład nowej serii wchodzą modele Scout, Maverick i Behemoth.
Meta AI trafia w końcu do Europy, ale w ograniczonej wersji i bez funkcji generowania obrazów
Meta ogłosiła wprowadzenie najnowszej serii modeli sztucznej inteligencji Llama 4, które stanowią znaczący krok naprzód w dziedzinie AI. Nowe modele charakteryzują się natywną multimodalnością. Oznacza to, że zostały zaprojektowane do jednoczesnego przetwarzania różnych typów danych, takich jak tekst, obrazy, wideo i dźwięk.
W skład rodziny Llama 4 wchodzą trzy główne modele:
- Llama 4 Scout to model o 17 miliardach aktywnych parametrów, wykorzystujący architekturę z 16 ekspertami. Scout oferuje kontekst o długości do 10 milionów tokenów. To pozwala na efektywne przetwarzanie dużych zbiorów danych.
- Llama 4 Maverick to większy model z 17 miliardami aktywnych parametrów i 128 ekspertami, posiadający łącznie 400 miliardów parametrów. Maverick wyróżnia się wysoką wydajnością w zadaniach związanych z kodowaniem i rozumowaniem.
- Llama 4 Behemoth to najpotężniejszy z modeli, wciąż w fazie treningu, z 288 miliardami aktywnych parametrów i łączną liczbą około 2 bilionów parametrów. Behemoth ma na celu ustanowienie nowych standardów w dziedzinie modeli językowych.
Meta miała wykorzystywać do treningu sztucznej inteligencji książki ściągnięte nielegalnie za pomocą sieci torrent
Wszystkie modele Llama 4 wykorzystują architekturę Mixture of Experts (MoE), która pozwala na dynamiczne aktywowanie tylko wybranych części modelu w zależności od zadania. Takie podejście zwiększa efektywność obliczeniową i umożliwia lepsze skalowanie modeli. Meta planuje udostępnić modele Llama 4 jako oprogramowanie open-source. Pozwoli to społeczności badawczej i deweloperom na wykorzystanie ich możliwości w wielu różnych aplikacjach. Wprowadzenie Llama 4 przez Meta stanowi istotny krok w rozwoju sztucznej inteligencji, otwierając nowe możliwości dla aplikacji wymagających zaawansowanego przetwarzania różnorodnych danych.
Powiązane publikacje

Meta Quest 3 i Quest 3S wykorzystają Windowsa 11 w innym wymiarze. Wirtualne monitory jak w Apple Vision Pro
17
Affinity Photo, Designer i Publisher zniknęły z rynku. Są dobre wieści: "Photoshop" za darmo dla macOS i Windows
14
WhatsApp z prostszym szyfrowaniem kopii zapasowej czatów. Już wkrótce zabepieczymy ją kluczem dostępu, zamiast długiego hasła
1
Przeglądarka Samsung Internet dla Windows 10 i 11. Pecetowa odsłona już dostępna dla wybranych
16







![Meta prezentuje modele Llama 4. Nowa generacja otwartoźródłowej AI przetwarza tekst, obraz i dźwięk [1]](/image/news/2025/04/08_meta_prezentuje_modele_llama_4_nowa_generacja_otwartozrodlowej_ai_przetwarza_tekst_obraz_i_dzwiek_2.jpg)
![Meta prezentuje modele Llama 4. Nowa generacja otwartoźródłowej AI przetwarza tekst, obraz i dźwięk [2]](/image/news/2025/04/08_meta_prezentuje_modele_llama_4_nowa_generacja_otwartozrodlowej_ai_przetwarza_tekst_obraz_i_dzwiek_1.jpg)





