Ludzie stanęli w obliczu fake newsów generowanych przez Sztuczną Inteligencję. Efekty nie napawają optymizmem
W czasach pandemii zjawisko zwane infodemią (nadmiar informacji, zarówno tych prawdziwych, jak i fałszywych) tylko się nasiliło. Rozpoznawanie fake newsów jest trudniejsze niż kiedykolwiek wcześniej. Przeprowadzono więc badanie, które miało wykazać, komu jesteśmy w stanie bardziej zaufać w kwestii prawdziwych informacji. Po jednej stronie stanęła Sztuczna Inteligencja, po drugiej zaś - prawdziwi ludzie. Wyniki eksperymentu są dość zaskakujące i nieco przerażające.
Udostępniono właśnie wyniki pewnego eksperymentu, w którym grupa badanych miała stwierdzić, czy tekst został wygenerowany przez AI, czy napisany przez prawdziwego człowieka. Rezultaty są niezbyt optymistyczne.
Czy pozwoliłbyś androidowi zaopiekować się twoimi dziećmi? 79% ankietowanych gry Detroit: Become Human rozważa taką opcję...
W całym eksperymencie wzięło udział 697 uczestników. Zadanie było dość proste: stwierdzić, czy dany tekst (w formie tweeta) został wygenerowany przez Sztuczną Inteligencję (model językowy GPT-3) czy napisała go realna osoba. Jako dane posłużyły zebrane tweety o różnej tematyce: od ewolucji i zmian klimatu, po kwestie związane ze szczepionkami. Ankietowani odpowiadali na zadane pytania poprzez reklamy na Facebooku. Nie mieli więc możliwości zerknąć na profil z Twittera, aby się bardziej upewnić co do odpowiedzi. Zadanie określenia "twórcy" tekstu okazało się zbyt dużym wyzwaniem. Nie lepiej sytuacja prezentuje się, kiedy spojrzymy na ustalenie prawdziwości napisanego tekstu.
Z postaciami w Skyrimie już niebawem będziesz mógł porozmawiać twarzą w twarz. Wszystko dzięki połączeniu wersji VR z ChatGPT
Okazało się bowiem, że ludzie są bardziej skłonni uwierzyć w prawdziwość treści napisanych przez AI niż przez ludzi. Niestety działa to też w drugą stronę. Fałszywe informacje wygenerowane za pomocą GPT-3 okazały się trudniejsze do rozpoznania - cytując fragment z opisu badania: "Informacje generowane przez GPT-3 są nie do odróżnienia od informacji generowanych przez człowieka". Wnioski są więc dość drastyczne, albowiem wynika z nich, że jako ludzie mamy skłonność do zaufania bardziej informacjom wygenerowanym, niż tym "prawdziwym". Rzecz jasna daje to ogromne pole do popisu, szczególnie jeśli chodzi o tworzenie nieprawdziwych wiadomości na dowolny temat. Sztuczna Inteligencja już teraz może stać się bronią w niepowołanych rękach. "Na pocieszenie" można dodać, że model GPT-3 uzyskał gorsze wyniki w tym badaniu, ponieważ sam nie potrafił stwierdzić, co jest prawdziwe, a co nie. Rada dla nas? Podchodzić do tego, co czytamy, oglądamy bądź słyszymy, z krytycznym nastawieniem. Nie możemy wierzyć ślepo we wszystko, co znajdziemy. Weryfikujmy znalezione informacje.
Powiązane publikacje

Doktorant MIT opracował system AI do odrestaurowania obrazów. Jest 66 razy szybszy od tradycyjnych metod konserwatorskich
26
Firma Billa Gatesa TerraPower dostała 650 mln USD od NVIDII i innych na budowę komercyjnego reaktora chłodzonego sodem
60
TSMC zapowiada CoPoS i PLP. Znacząca ewolucja, która pozwoli uzyskać więcej miejsca dla chipów
21
PCI-SIG finalizuje specyfikację PCI Express 7.0. Interfejs przygotowany jest na potrzeby systemów AI i cloud computing
42