Meta prezentuje swój duży model językowy. Zuckerberg zdradził, jakiej spodziewać się wydajności względem ChatGPT
Wyścig o dominację na rynku zaczęty przez OpenAI trwa. Kolejne firmy dołączają do niego, starając się wybić z tłumu i zająć odpowiednią pozycję. Tym razem do akcji wkroczyła Meta. Przedstawiła swoje cztery modele językowe, z których jeden uzyskuje lepsze wyniki, niż GPT-3. Wszystko to przy mniejszej liczbie parametrów oraz rozmiarze. Otwiera więc możliwości, aby w niedalekiej przyszłości być dostępnym na naszych urządzeniach przenośnych.
Meta prezentuje swój model językowy LLaMA-13B, który w testach jest dużo wydajniejszy od GPT-3. Jednak chodzi tu o jego pracę na jednym GPU.
O burzliwej osobowości chatbota Sydney Microsoft wiedział dużo wcześniej. Dlaczego więc wtedy nie zareagował?
Wczoraj (24.02.2023 r.) Meta zaprezentowała swój duży model językowy (LLM) nazwany LLaMA-13B, który oparty jest na algorytmach sztucznej inteligencji. Jednocześnie jest on częścią większej rodziny modeli językowych LLaMA (ang. Large Language Model Meta AI). Według doniesień firmy przy znacznie mniejszym rozmiarze ma on przewyższać swoją wydajnością ChatGPT. Dzięki temu asystent językowy ma być możliwy do uruchomienia lokalnie na urządzeniach mobilnych i komputerach. Jeśli zaś chodzi o pozostałą kolekcję tych modeli językowych, to posiadają one od 7 do 65 miliardów parametrów (dla porównania ChatGPT ma ich 175 mld, a ERNIE 260 mld). Mają to być cztery nowe modele różniące się od siebie możliwościami i zastosowaniem. Stanowić będą podstawę dla swoich następców. Wszystkie przeszkolone są na podstawie ogólnodostępnych publicznych zbiorów danych, takich jak Wikipedia czy Common Crawl.
Today we release LLaMA, 4 foundation models ranging from 7B to 65B parameters.
— Guillaume Lample (@GuillaumeLample) February 24, 2023
LLaMA-13B outperforms OPT and GPT-3 175B on most benchmarks. LLaMA-65B is competitive with Chinchilla 70B and PaLM 540B.
The weights for all models are open and available at https://t.co/q51f2oPZlE
1/n pic.twitter.com/DPyJFBfWEq
Synchron testuje już swoje rozwiązania na ludziach. Szykuje się przełom dla osób sparaliżowanych?
W testach wydajnościowych model LLaMA-13B okazał się lepszy od ChatGPT w pracy na pojedynczym GPU. Jest to dość ciekawe, bo posiada od niego dużo mniej parametrów. Odgrywają one jedną z najważniejszych ról, jeśli chodzi o możliwości modeli językowych. Jednak im więcej dany model ich posiada, tym bardziej wzrasta jego rozmiar. Tak więc informacja, że ten model językowy, jest w stanie osiągać podobne wyniki co jego (wydawać by się mogło) potężniejszy rywal, jest dość zaskakująca. Mielibyśmy do czynienia z wielkim wzrostem wydajności. "Myślę, że będziemy w stanie uruchamiać modele językowe, które będą posiadać część możliwości ChatGPT na naszych smartfonach i laptopach w ciągu roku, bądź dwóch lat" - wypowiedział się niezależny badacz AI Simon Willison. Jako że LLaMA-13B jest 10-krotnie mniejszy od GPT-3, może okazać się to prawdziwe. Na ten moment można pobrać okrojoną wersję modelu od Mety z GitHuba. Natomiast w przypadku chęci otrzymania pełnego kodu trzeba wypełnić odpowiedni formularz.
Powiązane publikacje

PCI-SIG ujawnia szczegóły standardu PCI-Express 7.0. Będzie można liczyć na przepustowość do 128 GT/s
34
Synchron i NVIDIA rewolucjonizują interfejsy mózg-komputer i chcą uczynić sterowanie myślami precyzyjniejszym
27
IBM patentuje druk 4D, wykorzystujący materiały z pamięcią kształtu oraz algorytmy sztucznej inteligencji
19
Roboty pracujące w sortowni paczek? Figure przedstawia możliwości ulepszonego modelu VLA o nazwie Helix
53