Wikimedia Foundation reaguje na krytykę. Generowane podsumowania AI wstrzymane po dwóch tygodniach testów
Wikipedia od lat stanowi jedno z najważniejszych źródeł wiedzy dostępnych online. Jest otwarte, bezpłatne i tworzone przez społeczność użytkowników z całego świata. Jako projekt bazujący na współpracy i transparentnych zasadach redakcyjnych, pełni kluczową rolę w upowszechnianiu rzetelnych informacji. Wikipedia eksperymentuje jednak z nowymi rozwiązaniami, próbując pogodzić automatyzację z zachowaniem wysokiej jakości treści.
Podsumowania generowane przez AI naruszały podstawowe zasady Wikipedii – brakowało im źródeł, kontekstu i przejrzystości edytorskiej.
Użytkownicy skarżą się, że ChatGPT zbyt często ich chwali. Czy sztuczna inteligencja przestała mówić prawdę?
W odpowiedzi na wzrost popularności narzędzi generatywnej AI, Wikimedia Foundation rozpoczęła testy uproszczonych podsumowań haseł w angielskiej wersji Wikipedii. Funkcja ta, aktywna przez dwa tygodnie w wersji mobilnej serwisu, miała ułatwić przeglądanie artykułów poprzez wyświetlanie krótkich streszczeń na bazie zawartości strony. Źródłem generowanych treści był eksperymentalny system wykorzystujący modele językowe wdrożone przez Wikimedia Enterprise. Jednak w ciągu zaledwie kilkunastu dni społeczność redaktorów wyraziła zdecydowany sprzeciw. Krytykowano brak możliwości edycji, nieprzejrzystość źródeł, błędy merytoryczne i fakt, że algorytm działał jak czarna skrzynka, niezgodna z zasadą transparentności redakcyjnej. W efekcie fundacja tymczasowo wycofała funkcję z użytku i ogłosiła zamiar dalszych konsultacji ze społecznością.
Zdjęcia na Instagramie nie tylko w dwóch formatach. Popularna platforma oferuje już wsparcie dla mobilnych proporcji
Sprawa ujawnia rosnące napięcie pomiędzy automatyzacją a kontrolą jakości w środowiskach współtworzonych przez społeczność. Chociaż AI może znacząco przyspieszyć przetwarzanie treści, jej wykorzystanie w encyklopedii bazującej na ludzkiej weryfikacji, a także konsensusie rodzi pytania o granice automatyzacji. Edytorzy zwrócili uwagę, że wygenerowane streszczenia bywały niedokładne, a czasem zniekształcały sens artykułu, co przy globalnym zasięgu Wikipedii może mieć poważne konsekwencje. Problem dotyka też kwestii odpowiedzialności, kto ponosi winę za błąd AI w otwartej encyklopedii? Czy w przyszłości modele będą musiały spełniać takie same standardy jak ludzie-edytorzy?
Powiązane publikacje

Zdjęcia na Instagramie nie tylko w dwóch formatach. Popularna platforma oferuje już wsparcie dla mobilnych proporcji
6
Meta kontra FTC. Kevin Systrom ujawnia, że Mark Zuckerberg postrzegał Instagram jako zagrożenie dla Facebooka
23
OpenAI rozważa zakup przeglądarki Chrome od Google, co oznacza potencjalną rewolucję w dostępie do sztucznej inteligencji
22
Użytkownicy skarżą się, że ChatGPT zbyt często ich chwali. Czy sztuczna inteligencja przestała mówić prawdę?
44