Ludzie stanęli w obliczu fake newsów generowanych przez Sztuczną Inteligencję. Efekty nie napawają optymizmem
W czasach pandemii zjawisko zwane infodemią (nadmiar informacji, zarówno tych prawdziwych, jak i fałszywych) tylko się nasiliło. Rozpoznawanie fake newsów jest trudniejsze niż kiedykolwiek wcześniej. Przeprowadzono więc badanie, które miało wykazać, komu jesteśmy w stanie bardziej zaufać w kwestii prawdziwych informacji. Po jednej stronie stanęła Sztuczna Inteligencja, po drugiej zaś - prawdziwi ludzie. Wyniki eksperymentu są dość zaskakujące i nieco przerażające.
Udostępniono właśnie wyniki pewnego eksperymentu, w którym grupa badanych miała stwierdzić, czy tekst został wygenerowany przez AI, czy napisany przez prawdziwego człowieka. Rezultaty są niezbyt optymistyczne.
Czy pozwoliłbyś androidowi zaopiekować się twoimi dziećmi? 79% ankietowanych gry Detroit: Become Human rozważa taką opcję...
W całym eksperymencie wzięło udział 697 uczestników. Zadanie było dość proste: stwierdzić, czy dany tekst (w formie tweeta) został wygenerowany przez Sztuczną Inteligencję (model językowy GPT-3) czy napisała go realna osoba. Jako dane posłużyły zebrane tweety o różnej tematyce: od ewolucji i zmian klimatu, po kwestie związane ze szczepionkami. Ankietowani odpowiadali na zadane pytania poprzez reklamy na Facebooku. Nie mieli więc możliwości zerknąć na profil z Twittera, aby się bardziej upewnić co do odpowiedzi. Zadanie określenia "twórcy" tekstu okazało się zbyt dużym wyzwaniem. Nie lepiej sytuacja prezentuje się, kiedy spojrzymy na ustalenie prawdziwości napisanego tekstu.
Z postaciami w Skyrimie już niebawem będziesz mógł porozmawiać twarzą w twarz. Wszystko dzięki połączeniu wersji VR z ChatGPT
Okazało się bowiem, że ludzie są bardziej skłonni uwierzyć w prawdziwość treści napisanych przez AI niż przez ludzi. Niestety działa to też w drugą stronę. Fałszywe informacje wygenerowane za pomocą GPT-3 okazały się trudniejsze do rozpoznania - cytując fragment z opisu badania: "Informacje generowane przez GPT-3 są nie do odróżnienia od informacji generowanych przez człowieka". Wnioski są więc dość drastyczne, albowiem wynika z nich, że jako ludzie mamy skłonność do zaufania bardziej informacjom wygenerowanym, niż tym "prawdziwym". Rzecz jasna daje to ogromne pole do popisu, szczególnie jeśli chodzi o tworzenie nieprawdziwych wiadomości na dowolny temat. Sztuczna Inteligencja już teraz może stać się bronią w niepowołanych rękach. "Na pocieszenie" można dodać, że model GPT-3 uzyskał gorsze wyniki w tym badaniu, ponieważ sam nie potrafił stwierdzić, co jest prawdziwe, a co nie. Rada dla nas? Podchodzić do tego, co czytamy, oglądamy bądź słyszymy, z krytycznym nastawieniem. Nie możemy wierzyć ślepo we wszystko, co znajdziemy. Weryfikujmy znalezione informacje.