Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Meta prezentuje swój duży model językowy. Zuckerberg zdradził, jakiej spodziewać się wydajności względem ChatGPT

Natan Faleńczyk | 25-02-2023 17:00 |

Meta prezentuje swój duży model językowy. Zuckerberg zdradził, jakiej spodziewać się wydajności względem ChatGPTWyścig o dominację na rynku zaczęty przez OpenAI trwa. Kolejne firmy dołączają do niego, starając się wybić z tłumu i zająć odpowiednią pozycję. Tym razem do akcji wkroczyła Meta. Przedstawiła swoje cztery modele językowe, z których jeden uzyskuje lepsze wyniki, niż GPT-3. Wszystko to przy mniejszej liczbie parametrów oraz rozmiarze. Otwiera więc możliwości, aby w niedalekiej przyszłości być dostępnym na naszych urządzeniach przenośnych.

Meta prezentuje swój model językowy LLaMA-13B, który w testach jest dużo wydajniejszy od GPT-3. Jednak chodzi tu o jego pracę na jednym GPU.

Meta prezentuje swój duży model językowy. Zuckerberg zdradził, jakiej spodziewać się wydajności względem ChatGPT [1]

O burzliwej osobowości chatbota Sydney Microsoft wiedział dużo wcześniej. Dlaczego więc wtedy nie zareagował?

Wczoraj (24.02.2023 r.) Meta zaprezentowała swój duży model językowy (LLM) nazwany LLaMA-13B, który oparty jest na algorytmach sztucznej inteligencji. Jednocześnie jest on częścią większej rodziny modeli językowych LLaMA (ang. Large Language Model Meta AI). Według doniesień firmy przy znacznie mniejszym rozmiarze ma on przewyższać swoją wydajnością ChatGPT. Dzięki temu asystent językowy ma być możliwy do uruchomienia lokalnie na urządzeniach mobilnych i komputerach. Jeśli zaś chodzi o pozostałą kolekcję tych modeli językowych, to posiadają one od 7 do 65 miliardów parametrów (dla porównania ChatGPT ma ich 175 mld, a ERNIE 260 mld). Mają to być cztery nowe modele różniące się od siebie możliwościami i zastosowaniem. Stanowić będą podstawę dla swoich następców. Wszystkie przeszkolone są na podstawie ogólnodostępnych publicznych zbiorów danych, takich jak Wikipedia czy Common Crawl.

Synchron testuje już swoje rozwiązania na ludziach. Szykuje się przełom dla osób sparaliżowanych?

W testach wydajnościowych model LLaMA-13B okazał się lepszy od ChatGPT w pracy na pojedynczym GPU. Jest to dość ciekawe, bo posiada od niego dużo mniej parametrów. Odgrywają one jedną z najważniejszych ról, jeśli chodzi o możliwości modeli językowych. Jednak im więcej dany model ich posiada, tym bardziej wzrasta jego rozmiar. Tak więc informacja, że ten model językowy, jest w stanie osiągać podobne wyniki co jego (wydawać by się mogło) potężniejszy rywal, jest dość zaskakująca. Mielibyśmy do czynienia z wielkim wzrostem wydajności. "Myślę, że będziemy w stanie uruchamiać modele językowe, które będą posiadać część możliwości ChatGPT na naszych smartfonach i laptopach w ciągu roku, bądź dwóch lat" - wypowiedział się niezależny badacz AI Simon Willison. Jako że LLaMA-13B jest 10-krotnie mniejszy od GPT-3, może okazać się to prawdziwe. Na ten moment można pobrać okrojoną wersję modelu od Mety z GitHuba. Natomiast w przypadku chęci otrzymania pełnego kodu trzeba wypełnić odpowiedni formularz.

Meta prezentuje swój duży model językowy. Zuckerberg zdradził, jakiej spodziewać się wydajności względem ChatGPT [2]

Źródło: Ars Technica
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 72

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.