Ludzie stanęli w obliczu fake newsów generowanych przez Sztuczną Inteligencję. Efekty nie napawają optymizmem
W czasach pandemii zjawisko zwane infodemią (nadmiar informacji, zarówno tych prawdziwych, jak i fałszywych) tylko się nasiliło. Rozpoznawanie fake newsów jest trudniejsze niż kiedykolwiek wcześniej. Przeprowadzono więc badanie, które miało wykazać, komu jesteśmy w stanie bardziej zaufać w kwestii prawdziwych informacji. Po jednej stronie stanęła Sztuczna Inteligencja, po drugiej zaś - prawdziwi ludzie. Wyniki eksperymentu są dość zaskakujące i nieco przerażające.
Udostępniono właśnie wyniki pewnego eksperymentu, w którym grupa badanych miała stwierdzić, czy tekst został wygenerowany przez AI, czy napisany przez prawdziwego człowieka. Rezultaty są niezbyt optymistyczne.
Czy pozwoliłbyś androidowi zaopiekować się twoimi dziećmi? 79% ankietowanych gry Detroit: Become Human rozważa taką opcję...
W całym eksperymencie wzięło udział 697 uczestników. Zadanie było dość proste: stwierdzić, czy dany tekst (w formie tweeta) został wygenerowany przez Sztuczną Inteligencję (model językowy GPT-3) czy napisała go realna osoba. Jako dane posłużyły zebrane tweety o różnej tematyce: od ewolucji i zmian klimatu, po kwestie związane ze szczepionkami. Ankietowani odpowiadali na zadane pytania poprzez reklamy na Facebooku. Nie mieli więc możliwości zerknąć na profil z Twittera, aby się bardziej upewnić co do odpowiedzi. Zadanie określenia "twórcy" tekstu okazało się zbyt dużym wyzwaniem. Nie lepiej sytuacja prezentuje się, kiedy spojrzymy na ustalenie prawdziwości napisanego tekstu.
Z postaciami w Skyrimie już niebawem będziesz mógł porozmawiać twarzą w twarz. Wszystko dzięki połączeniu wersji VR z ChatGPT
Okazało się bowiem, że ludzie są bardziej skłonni uwierzyć w prawdziwość treści napisanych przez AI niż przez ludzi. Niestety działa to też w drugą stronę. Fałszywe informacje wygenerowane za pomocą GPT-3 okazały się trudniejsze do rozpoznania - cytując fragment z opisu badania: "Informacje generowane przez GPT-3 są nie do odróżnienia od informacji generowanych przez człowieka". Wnioski są więc dość drastyczne, albowiem wynika z nich, że jako ludzie mamy skłonność do zaufania bardziej informacjom wygenerowanym, niż tym "prawdziwym". Rzecz jasna daje to ogromne pole do popisu, szczególnie jeśli chodzi o tworzenie nieprawdziwych wiadomości na dowolny temat. Sztuczna Inteligencja już teraz może stać się bronią w niepowołanych rękach. "Na pocieszenie" można dodać, że model GPT-3 uzyskał gorsze wyniki w tym badaniu, ponieważ sam nie potrafił stwierdzić, co jest prawdziwe, a co nie. Rada dla nas? Podchodzić do tego, co czytamy, oglądamy bądź słyszymy, z krytycznym nastawieniem. Nie możemy wierzyć ślepo we wszystko, co znajdziemy. Weryfikujmy znalezione informacje.
Powiązane publikacje

Google inwestuje miliony w AI, która może wyleczyć każdą chorobę. Czy rewolucja w medycynie jest coraz bliżej?
102
Chińska firma SiCarrier prezentuje na Semicon China 2025 zaawansowane narzędzia do produkcji chipów, zaskakując branżę
37
Extropic chce zdetronizować NVIDIĘ dzięki rewolucyjnej technologii chipów probabilistycznych
21
Chińska Ant Group osiąga przełom w sztucznej inteligencji dzięki wykorzystaniu rodzimych układów półprzewodnikowych
16