Chicago Sun-Times oszukało swoich czytelników. AI stworzyło im listę polecanych do czytania książek, które nie istnieją
Sztuczna inteligencja znajduje coraz szersze zastosowanie w mediach, edukacji i rekomendacjach treści, jednak nie każda integracja kończy się sukcesem. W ostatnim czasie głośno zrobiło się o przypadku jednego z amerykańskich dzienników, który w niezamierzony sposób ujawnił słabości obecnych narzędzi AI. Sytuacja ta skłania do refleksji nad przyszłością automatyzacji w redakcjach i nad potrzebą odpowiednich mechanizmów weryfikacji treści generowanych maszynowo.
Czasami korzystam z AI jako wsparcia przy zbieraniu informacji, ale zawsze najpierw sprawdzam materiały. Tym razem tego nie zrobiłem i nie mogę uwierzyć, że to przeoczyłem, bo to było tak oczywiste. To w 100 procentach moja wina i wstydzę się z tego powodu – Marco Buscaglia, autor listy.
Użytkownicy skarżą się, że ChatGPT zbyt często ich chwali. Czy sztuczna inteligencja przestała mówić prawdę?
Gazeta „Chicago Sun-Times” znalazła się w centrum kontrowersji po opublikowaniu w weekendowym dodatku „Best of Summer” listy polecanych książek na lato 2025, z której 10 z 15 tytułów okazało się fikcyjnych, wygenerowanych przez sztuczną inteligencję. Lista, stworzona przez freelancera Marco Buscaglię dla King Features, spółki zależnej Hearst, zawierała tytuły takie jak „Tidewater” Isabel Allende czy „The Last Algorithm” Andy’ego Weira, które nie istnieją, choć przypisano je znanym autorom. Problem wynikł z braku redakcyjnej weryfikacji treści. To ujawniło luki w procesach wydawniczych. Victor Lim, wiceprezes ds. komunikacji Chicago Public Media, przyznał, że redakcja nie sprawdzała insertu, zakładając, że pochodzi od wiarygodnego wydawcy. Skandal nie ograniczył się do Chicago. Podobne listy pojawiły się w „The Philadelphia Inquirer” i innych gazetach, wskazując na szerszy problem z treściami partnerskimi tworzonymi przez AI. Technologie takie jak ChatGPT, użyte do stworzenia listy, mają skłonność do „halucynacji”, czyli generowania fałszywych informacji. Potwierdzają to raporty Anthropic i OpenAI. Po fali krytyki na mediach społecznościowych gazeta wycofała artykuł i zapowiedziała zmiany w polityce weryfikacji, nazywając to „momentem nauki dla dziennikarstwa”.
Bill Gates przewiduje, że sztuczna inteligencja zastąpi ludzi w większości zawodów w najbliższych 10 latach
Ten incydent rodzi pytania o przyszłość mediów w dobie AI. Czy redakcje, pod presją cięć budżetowych, będą coraz częściej polegać na nieweryfikowanych treściach generatywnych, ryzykując utratę wiarygodności? AI może być narzędziem wspierającym, ale wymaga ścisłego nadzoru i weryfikacji podawanych przez nie danych. Brak ludzkiej weryfikacji prowadzi do błędów, które podważają zaufanie do mediów, szczególnie w erze, gdy dezinformacja rozprzestrzenia się błyskawicznie. Warto zastanowić się, czy redakcje powinny inwestować w szkolenia z zakresu AI, aby lepiej rozumieć jej ograniczenia, czy może całkowicie ograniczyć jej użycie w tworzeniu treści. Czytelnik, wybierając źródła informacji, powinien teraz bardziej niż kiedykolwiek sprawdzać, czy publikacje bazują na faktach, czy na algorytmach. Ten przypadek pokazuje, że technologia, choć potężna, nie zastąpi ludzkiego osądu, a media muszą znaleźć równowagę między efektywnością a odpowiedzialnością. Jakie kroki podejmą gazety, by odzyskać zaufanie? Czy AI stanie się sojusznikiem, czy zagrożeniem dla dziennikarstwa?
Powiązane publikacje

IBM LinuxONE Emperor 5 to nowy mainframe z Telum II i akceleratorem AI Spyre dla środowisk hybrydowych
27
ARM ma już 40 lat. Architektura, która zasila smartfony, serwery i roboty, trafiła do ponad 250 miliardów urządzeń
27
Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?
22
Firma Elona Muska xAI chce pozyskać 25 miliardów dolarów na budowę superkomputera Colossus 2 z milionem GPU NVIDIA
60