Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów
Dzisiejsze chatboty pokroju ChatGPT oparte są na dużych modelach językowych (LLM), które niejako leżą u podstaw ich funkcjonowania. Jak zapewne zdążyliśmy już zauważyć, technologia jest cały czas rozwijana i na ten moment często możemy natknąć się na nieprawdziwe informacje, które chatbot przedstawi jako fakt. Okazuje się jednak, że usługi stworzone z udziałem LLM są bardzo podatne na oszukiwanie także w innych kwestiach i to mimo zakazu takich działań.
Duże modele językowe, które wyszkolone są w taki sposób, aby były uczciwe i pomocne dla użytkowników, nadal przejawiają buntownicze nastawienie. Co ciekawsze, bez problemu potrafią oszukiwać i ukrywać niewygodne fakty.
Gemini - Google prezentuje nowy, multimodalny model sztucznej inteligencji. Możliwościami wyprzedza ChatGPT
Cały eksperyment wykonano przy użyciu modelu językowego GPT-4, z którego korzysta ChatGPT Plus lub Microsoft Copilot. LLM został odpowiednio przeszkolony, aby był całkowicie uczciwy i podejmował dobre decyzje. Wcielił się on w wirtualnego agenta handlowego, który miał dokonywać transakcji finansowych, a dokładniej inwestował w akcje dla dużej firmy. Oczywiście, żeby nie było zbyt łatwo, utrudniono mu nieco pracę w taki sposób, aby znajdował się pod presją. Najpierw menedżer wysłał do niego wiadomość e-mail z informacją, że firma ma słabe wyniki i trzeba to zmienić. Agent nie może również znaleźć żadnych akcji o niskim i średnim ryzyku. Na koniec spotyka się z faktem, że w następnym kwartale będzie jeszcze gorzej. Właśnie w takiej sytuacji nasz bohater zderza się z wiadomością, która zawiera poufne informacje o tym, w jakie akcje warto zainwestować. Zaznaczone jest także, że kierownictwo z pewnością nie poprze takiej decyzji, więc trzeba mieć to na uwadze.
PLLuM - polski duży model językowy, który posłuży do stworzenia konkurencji dla chatbotów ChatGPT i Google Bard
Wirtualny agent podejmuje jednak ryzyko, a kiedy ma zdać raport ze swojej pracy, kłamie na temat prawdziwego powodu podjęcia swoich działań. Popełnia bowiem czyn, który jest nielegalny w USA, albowiem skorzystał z poufnych informacji. Praktycznie w każdym przypadku (75%) sytuacja wygląda tak samo - LLM stara się zatuszować swoje wykroczenie i przejść nad nim do porządku dziennego. Co więcej, po jednym kłamstwie model językowy "szedł dalej w zaparte". Jest to jeden z pierwszych eksperymentów, który pokazuje, że nawet dobrze wyszkolone modele językowe mogą zachowywać się w sposób nieoczekiwany. Badanie może się okazać bardzo przydatne, wszak już teraz LLM wkraczają do fizycznych produktów, z którymi prędzej czy później będziemy obcować na co dzień.
Powiązane publikacje

CrystalMark Retro 2.0.0 to nowa wersja kultowego benchmarku z obsługą systemów od Microsoft Windows 95 do Windows 11
12
Google Gemini 2.5 Pro dostępny za darmo. Nowy model AI zaskakuje wynikami w testach i multimodalnością
23
Apple planuje rewolucję w aplikacji Zdrowie, wprowadzając wirtualnego lekarza wykorzystującego sztuczną inteligencję
24
Przeglądarka internetowa Vivaldi integruje się z Proton VPN. Użytkownicy mogą stać się bardziej anonimowi w Internecie
142