Sztuczna inteligencja uczy się korzystać z komputera. Anthropic zwiększa możliwości modelu Claude 3.5 Sonnet
Rozwój dużych modeli językowych (LLM) przybiera dziś stosunkowo nowy kierunek. Zakres zrozumienia różnych zagadnień przez popularne chatboty staje się coraz lepszy, ale nie jest idealny. Jednak już teraz firmy pracują nad tym, aby modele AI były w stanie same obsługiwać komputer. Jedną z nich jest Anthropic, która udoskonaliła swój model Claude 3.5 Sonnet, aby mógł sprostać temu zadaniu. Przy okazji ogłoszono, że wkrótce stanie się dostępny model Claude 3.5 Haiku.
Firma Anthropic ogłosiła, że jej udoskonalony model AI o nazwie Claude 3.5 Sonnet jest w stanie obsługiwać komputer. Dodatkowo już niebawem zostanie udostępniony nowy model Claude 3.5 Haiku.
Claude 3 - nowa rodzina modeli AI, która możliwościami przerasta GPT-4 od OpenAI. Rywal jest jednak tylko częściowo darmowy
Nowy model Claude 3.5 Haiku w wielu testach przewyższa najbardziej zaawansowaną odsłonę z poprzedniej generacji, czyli Claude 3 Opus. Jego zaletą jest szybkość działania, a najlepiej radzi sobie z programowaniem. Dostępność przewidziana jest jeszcze na październik 2024 roku (początkowo wyłącznie jako model tekstowy, a z czasem zyska możliwość analizowania grafik). Jednak najciekawszym rozwiązaniem bez wątpienia jest ulepszony Claude 3.5 Sonnet, który zyskał sposobność korzystania z komputera. Oznacza to, że model AI może "widzieć" to, co znajduje się na ekranie, poruszać myszką, klikać konkretne elementy, a także wpisywać tekst.
Model GPT-4 od OpenAI został zdetronizowany. Użytkownicy wybrali następnego króla, którym jest nowość od Anthropic
Mamy co prawda do czynienia z wersją eksperymentalną, która wymaga jeszcze dużych nakładów pracy, aby można było używać tego rozwiązania do bardziej zaawansowanych zadań (podczas pokazu model zatrzymał nagrywanie ekranu, co spowodowało utratę całego materiału, a innym razem postanowił zrobić sobie przerwę i pooglądać obrazy Parku Narodowego Yellowstone). Niemniej jednak możliwości modelu Claude 3.5 Sonnet są już dostępne (publiczna beta) poprzez interfejs API. Tak więc obecnie programiści mogą testować nowe narzędzie, a badacze z Anthropic będą stopniowo zwiększać możliwości omawianego modelu w tym zakresie. W benchmarku OSWorld, który ocenia zdolności modeli AI w komputerowych zadaniach, Claude 3.5 Sonnet w kategorii "Zrzut ekranu" (ang. Screenshot) przy 15 krokach uzyskał wynik 14,9% (u ludzi wynik zazwyczaj mieści się w zakresie 70-75%). Dla porównania GPT-4 Vision zakończył ten test z rezultatem 7,69%, a Gemini-Pro Vision - 5,8%. Potrzeba więc jeszcze sporo czasu, zanim modele AI zaczną dobrze obsługiwać komputery, ale są na dobrej drodze (co oczywiście niesie za sobą sporo zagrożeń, ale firma Anthropic jest zdania, że lepiej testować nowe umiejętności teraz, kiedy model nie stwarza zbyt wielkiego zagrożenia, niż gdyby miała to robić dopiero w momencie, kiedy Claude 3.5 Sonnet wymagałby stosowania większych zabezpieczeń i ryzyko byłoby poważniejsze).
Even while recording these demos, we encountered some amusing moments. In one, Claude accidentally stopped a long-running screen recording, causing all footage to be lost.
— Anthropic (@AnthropicAI) October 22, 2024
Later, Claude took a break from our coding demo and began to peruse photos of Yellowstone National Park. pic.twitter.com/r6Lrx6XPxZ
Powiązane publikacje

IBM LinuxONE Emperor 5 to nowy mainframe z Telum II i akceleratorem AI Spyre dla środowisk hybrydowych
27
ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
27
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60