Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów

Natan Faleńczyk | 28-12-2023 23:30 |

Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynówDzisiejsze chatboty pokroju ChatGPT oparte są na dużych modelach językowych (LLM), które niejako leżą u podstaw ich funkcjonowania. Jak zapewne zdążyliśmy już zauważyć, technologia jest cały czas rozwijana i na ten moment często możemy natknąć się na nieprawdziwe informacje, które chatbot przedstawi jako fakt. Okazuje się jednak, że usługi stworzone z udziałem LLM są bardzo podatne na oszukiwanie także w innych kwestiach i to mimo zakazu takich działań.

Duże modele językowe, które wyszkolone są w taki sposób, aby były uczciwe i pomocne dla użytkowników, nadal przejawiają buntownicze nastawienie. Co ciekawsze, bez problemu potrafią oszukiwać i ukrywać niewygodne fakty.

Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów [1]

Gemini - Google prezentuje nowy, multimodalny model sztucznej inteligencji. Możliwościami wyprzedza ChatGPT

Cały eksperyment wykonano przy użyciu modelu językowego GPT-4, z którego korzysta ChatGPT Plus lub Microsoft Copilot. LLM został odpowiednio przeszkolony, aby był całkowicie uczciwy i podejmował dobre decyzje. Wcielił się on w wirtualnego agenta handlowego, który miał dokonywać transakcji finansowych, a dokładniej inwestował w akcje dla dużej firmy. Oczywiście, żeby nie było zbyt łatwo, utrudniono mu nieco pracę w taki sposób, aby znajdował się pod presją. Najpierw menedżer wysłał do niego wiadomość e-mail z informacją, że firma ma słabe wyniki i trzeba to zmienić. Agent nie może również znaleźć żadnych akcji o niskim i średnim ryzyku. Na koniec spotyka się z faktem, że w następnym kwartale będzie jeszcze gorzej. Właśnie w takiej sytuacji nasz bohater zderza się z wiadomością, która zawiera poufne informacje o tym, w jakie akcje warto zainwestować. Zaznaczone jest także, że kierownictwo z pewnością nie poprze takiej decyzji, więc trzeba mieć to na uwadze.

Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów [2]

PLLuM - polski duży model językowy, który posłuży do stworzenia konkurencji dla chatbotów ChatGPT i Google Bard

Wirtualny agent podejmuje jednak ryzyko, a kiedy ma zdać raport ze swojej pracy, kłamie na temat prawdziwego powodu podjęcia swoich działań. Popełnia bowiem czyn, który jest nielegalny w USA, albowiem skorzystał z poufnych informacji. Praktycznie w każdym przypadku (75%) sytuacja wygląda tak samo - LLM stara się zatuszować swoje wykroczenie i przejść nad nim do porządku dziennego. Co więcej, po jednym kłamstwie model językowy "szedł dalej w zaparte". Jest to jeden z pierwszych eksperymentów, który pokazuje, że nawet dobrze wyszkolone modele językowe mogą zachowywać się w sposób nieoczekiwany. Badanie może się okazać bardzo przydatne, wszak już teraz LLM wkraczają do fizycznych produktów, z którymi prędzej czy później będziemy obcować na co dzień.

Modele językowe w roli prawdziwych ludzi także oszukują i zacierają ślady. ChatGPT bez problemu dokona nielegalnych czynów [3]

Źródło: Live Science
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 19

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.