Meta z wyciekiem narzędzi sztucznej inteligencji. Korporacyjny Large Language Model Meta AI pojawił się na forum 4chan
Obecne modele językowe sztucznej inteligencji podążają różną drogą w zakresie dostępności dla szerszej publiki. Niektóre - tak jak słynny ChatGPT od OpenAI i Microsoftu - wprowadzono w ogólnym dostępie i każdy może się z nimi zapoznać. Nie jest to jednak jedyna możliwość. Mark Zuckerberg ograniczył Large Language Model Meta AI autorstwa swojej firmy do węższego grona odbiorców. W tym przypadku trzeba posiadać odpowiednie zaproszenie, by móc skorzystać z narzędzi.
3 marca 2023 roku do Internetu dostał się model sztucznej inteligencji korporacji Meta. Nieznany użytkownik umieścił na forum 4chan odnośnik do torrenta zawierającego odpowiednie pliki. Dotychczas z dzieła firmy można było skorzystać tylko po odpowiedniej weryfikacji (w postaci pakietu z wolnym dostępem do kodu źródłowego).
Meta prezentuje swój duży model językowy. Zuckerberg zdradził, jakiej spodziewać się wydajności względem ChatGPT
Dziennikarzom udało się potwierdzić prawdziwy charakter wycieku, to jest zgodność narzędzi udzielonych badaczom z tym, co można pobrać z Internetu. Meta udostępniło LLaMA (który tak naprawdę nie jest pojedynczym systemem, ale zespołem różnych modeli) na niekomercyjnej licencji skupionej na badaniach naukowych - z dostępem dla grup takich jak uniwersytety, organizacje pozarządowe i laboratoria przemysłowe. Takie podejście prędzej czy później musiało zakończyć się wyciekiem. Należy podkreślić, że rozwiązanie LLaMA nie opiera się na chatbocie i dialogowaniu z użytkownikiem. W praktyce przypomina raczej piaskownicę różnych narzędzi. W przeciwieństwie do produktów internetowych z pełnym API, dzieło Mety wymaga potężnego sprzętu i dużej wiedzy do uruchomienia go.
Kosmos-1 - multimodalny duży model językowy od Microsoftu. Jest dużo bardziej zaawansowany od GPT-3
Trudno w tej chwili określić skutki wycieku. Nie wiadomo bowiem, jakie są pełne możliwości ujawnionego kodu. Istnieje prawdopodobieństwo, że LLaMA zostanie użyte do przeprowadzania wiarygodnych oszustw w Internecie, pisania spamu bądź generowania szkodliwego kodu. Eksperci podkreślają również, że model nie przeszedł jeszcze fazy "nastrajania" (fine-tuning), to jest specjalizacji do pewnych określonych obowiązków (na przykład rozmów z użytkownikami). Stanowi to kolejną barierę dla zwykłego internauty, który chciałby zaprząc sztuczną inteligencję do rozwiązywania narzuconych jej zadań.
Powiązane publikacje

Duolingo stawia na AI. Chodzi o automatyzację procesów, a także redukcję kontraktorów w edukacyjnej rewolucji
22
Microsoft Recall oraz Click to Do trafiły do zapoznawczej aktualizacji Windowsa 11 dla komputerów Copilot+ AI
17
Dystrybucja OpenMandriva Lx 6.0 Rock już dostępna. Stabilna odsłona z KDE Plasma 6, która oferuje jądro Linux 6.15
28
Windows 11 - kwietniowe aktualizacje systemu i zabezpieczeń powodują błędy BSOD, a także problemy z logowaniem
78