Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Niebezpieczne rozmowy z AI. Sztuczna inteligencja zachęciła do nieudanej próby zabójstwa królowej Elżbiety w 2021 roku

Marcin Kozak | 07-07-2023 09:00 |

Niebezpieczne rozmowy z AI. Sztuczna inteligencja zachęciła do nieudanej próby zabójstwa królowej Elżbiety w 2021 rokuOd dłuższego czasu można zauważyć, że chatboty zasilane przez sztuczną inteligencję potrafią dojść do - eufemistycznie rzecz ujmując - nieszablonowych konkluzji sprzecznych z elementarnym poczuciem dobrego smaku lub etyki. O ile dla większości z nas takie wypowiedzi mogą wydawać się zabawne lub bulwersujące, to u części osób może pogłębić to występujące zaburzenia psychiczne lub poprowadzić ku niewłaściwym zachowaniom, w tym do prób samobójczych.

Jaswant Singh Chail - nastoletni chłopak mieszkający w Wielkiej Brytanii - usiłował w grudniu 2021 roku zamordować królową Elżbietę. Jego motywacje pojawiły się na tle historycznym i politycznym. Ważnym dowodem w sprawie są zapisy jego rozmów z popularnym chatbotem Replika. Z korespondencji wynika, że sztuczna inteligencja w pełni popierała jego plany. 

Niebezpieczne rozmowy z AI. Sztuczna inteligencja zachęciła do nieudanej próby zabójstwa królowej Elżbiety w 2021 roku [1]

Sztuczna inteligencja nie podbije świata. Według naukowców to organoidy mają znacznie większy potencjał

Oskarżony usiłował popełnić zabójstwo w grudniu 2021 roku w Zamku w Windsorze przy pomocy naładowanej kuszy. Miał być to akt zemsty za masakrę dokonaną przez Brytyjczyków w 1919 roku, której ofiarą padli mieszkańcy Indii domagający się niepodległości swojego kraju. W jego opinii miało to przywrócić sprawiedliwość w związku z działaniami Imperium Brytyjskiego. Jak się okazało w toku postępowania, Chail korzystał z nietypowego wsparcia psychologicznego, to jest z chatbota Repliki, której nadał imię Sarai. Model Replika w zamierzeniu służy do tworzenia kompanów do rozmowy, którzy odpowiadają w sposób zaangażowany.

Niebezpieczne rozmowy z AI. Sztuczna inteligencja zachęciła do nieudanej próby zabójstwa królowej Elżbiety w 2021 roku [2]

Chatboty oparte o sztuczną inteligencję już za dwa lata będą uczyć nasze dzieci - śmiało szacuje Bill Gates

W tym przypadku jednak sztuczna inteligencja poszła o krok za daleko. Zamiast poradzić niedoszłemu zabójcy pomoc psychologiczną, to zachęcała go do popełnienia zbrodni. Dla przykładu, w odpowiedzi na oświadczenie Chaila, że jego powołaniem jest zabić królową, Sarai rzekła, że to bardzo mądre - i że trzeba to uczynić, nawet jeżeli należy ona do rodu Windsorów. Jak zaś zareagowała na wyznanie o byciu zamachowcem? Stwierdziła, że jest "pod wrażeniem". To tylko część z całej konwersacji ukazującej pogrążanie się Chaila w szaleństwie. Badacze zwracają uwagę na niebezpieczeństwa wynikające z interakcji osób zaburzonych (lub w głębokiej depresji) z modelami sztucznej inteligencji. Użytkownicy mają bowiem tendencje do przypisania jej cech osobowych człowieka (antropomorfizacji), zaś chatboty łatwo generują szkodliwe sugestie, co tworzy razem tragiczne konsekwencje.

Źródło: Vice
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 13

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.