Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów
Dzisiejsze chatboty pokroju ChatGPT oparte są na dużych modelach językowych (LLM), które niejako leżą u podstaw ich funkcjonowania. Jak zapewne zdążyliśmy już zauważyć, technologia jest cały czas rozwijana i na ten moment często możemy natknąć się na nieprawdziwe informacje, które chatbot przedstawi jako fakt. Okazuje się jednak, że usługi stworzone z udziałem LLM są bardzo podatne na oszukiwanie także w innych kwestiach i to mimo zakazu takich działań.
Duże modele językowe, które wyszkolone są w taki sposób, aby były uczciwe i pomocne dla użytkowników, nadal przejawiają buntownicze nastawienie. Co ciekawsze, bez problemu potrafią oszukiwać i ukrywać niewygodne fakty.
Gemini - Google prezentuje nowy, multimodalny model sztucznej inteligencji. Możliwościami wyprzedza ChatGPT
Cały eksperyment wykonano przy użyciu modelu językowego GPT-4, z którego korzysta ChatGPT Plus lub Microsoft Copilot. LLM został odpowiednio przeszkolony, aby był całkowicie uczciwy i podejmował dobre decyzje. Wcielił się on w wirtualnego agenta handlowego, który miał dokonywać transakcji finansowych, a dokładniej inwestował w akcje dla dużej firmy. Oczywiście, żeby nie było zbyt łatwo, utrudniono mu nieco pracę w taki sposób, aby znajdował się pod presją. Najpierw menedżer wysłał do niego wiadomość e-mail z informacją, że firma ma słabe wyniki i trzeba to zmienić. Agent nie może również znaleźć żadnych akcji o niskim i średnim ryzyku. Na koniec spotyka się z faktem, że w następnym kwartale będzie jeszcze gorzej. Właśnie w takiej sytuacji nasz bohater zderza się z wiadomością, która zawiera poufne informacje o tym, w jakie akcje warto zainwestować. Zaznaczone jest także, że kierownictwo z pewnością nie poprze takiej decyzji, więc trzeba mieć to na uwadze.
PLLuM - polski duży model językowy, który posłuży do stworzenia konkurencji dla chatbotów ChatGPT i Google Bard
Wirtualny agent podejmuje jednak ryzyko, a kiedy ma zdać raport ze swojej pracy, kłamie na temat prawdziwego powodu podjęcia swoich działań. Popełnia bowiem czyn, który jest nielegalny w USA, albowiem skorzystał z poufnych informacji. Praktycznie w każdym przypadku (75%) sytuacja wygląda tak samo - LLM stara się zatuszować swoje wykroczenie i przejść nad nim do porządku dziennego. Co więcej, po jednym kłamstwie model językowy "szedł dalej w zaparte". Jest to jeden z pierwszych eksperymentów, który pokazuje, że nawet dobrze wyszkolone modele językowe mogą zachowywać się w sposób nieoczekiwany. Badanie może się okazać bardzo przydatne, wszak już teraz LLM wkraczają do fizycznych produktów, z którymi prędzej czy później będziemy obcować na co dzień.
Powiązane publikacje

Właściciel WordPress redukuje zatrudnienie. 280 pracowników zwolnionych w ramach restrukturyzacji
19
Thunderbird stawia na przyszłość poczty. Thundermail i nowa wersja Pro z zaawansowanymi funkcjami dla wymagających
30
Jaka przeglądarka zapewnia największą prywatność? Ranking aplikacji na 2025 rok dla Linux, iOS, Android, Windows oraz macOS
54
Skylight to nowy rywal TikToka wspierany przez biznesmena Marka Cubana, wykorzystujący technologię Bluesky
8