Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Wikimedia Foundation reaguje na krytykę. Generowane podsumowania AI wstrzymane po dwóch tygodniach testów

Maciej Lewczuk | 12-06-2025 10:30 |

Wikimedia Foundation reaguje na krytykę. Generowane podsumowania AI wstrzymane po dwóch tygodniach testówWikipedia od lat stanowi jedno z najważniejszych źródeł wiedzy dostępnych online. Jest otwarte, bezpłatne i tworzone przez społeczność użytkowników z całego świata. Jako projekt bazujący na współpracy i transparentnych zasadach redakcyjnych, pełni kluczową rolę w upowszechnianiu rzetelnych informacji. Wikipedia eksperymentuje jednak z nowymi rozwiązaniami, próbując pogodzić automatyzację z zachowaniem wysokiej jakości treści.

Podsumowania generowane przez AI naruszały podstawowe zasady Wikipedii – brakowało im źródeł, kontekstu i przejrzystości edytorskiej.

Wikimedia Foundation reaguje na krytykę. Generowane podsumowania AI wstrzymane po dwóch tygodniach testów [1]

Użytkownicy skarżą się, że ChatGPT zbyt często ich chwali. Czy sztuczna inteligencja przestała mówić prawdę?

W odpowiedzi na wzrost popularności narzędzi generatywnej AI, Wikimedia Foundation rozpoczęła testy uproszczonych podsumowań haseł w angielskiej wersji Wikipedii. Funkcja ta, aktywna przez dwa tygodnie w wersji mobilnej serwisu, miała ułatwić przeglądanie artykułów poprzez wyświetlanie krótkich streszczeń na bazie zawartości strony. Źródłem generowanych treści był eksperymentalny system wykorzystujący modele językowe wdrożone przez Wikimedia Enterprise. Jednak w ciągu zaledwie kilkunastu dni społeczność redaktorów wyraziła zdecydowany sprzeciw. Krytykowano brak możliwości edycji, nieprzejrzystość źródeł, błędy merytoryczne i fakt, że algorytm działał jak czarna skrzynka, niezgodna z zasadą transparentności redakcyjnej. W efekcie fundacja tymczasowo wycofała funkcję z użytku i ogłosiła zamiar dalszych konsultacji ze społecznością.

Wikimedia Foundation reaguje na krytykę. Generowane podsumowania AI wstrzymane po dwóch tygodniach testów [2]

Zdjęcia na Instagramie nie tylko w dwóch formatach. Popularna platforma oferuje już wsparcie dla mobilnych proporcji

Sprawa ujawnia rosnące napięcie pomiędzy automatyzacją a kontrolą jakości w środowiskach współtworzonych przez społeczność. Chociaż AI może znacząco przyspieszyć przetwarzanie treści, jej wykorzystanie w encyklopedii bazującej na ludzkiej weryfikacji, a także konsensusie rodzi pytania o granice automatyzacji. Edytorzy zwrócili uwagę, że wygenerowane streszczenia bywały niedokładne, a czasem zniekształcały sens artykułu, co przy globalnym zasięgu Wikipedii może mieć poważne konsekwencje. Problem dotyka też kwestii odpowiedzialności, kto ponosi winę za błąd AI w otwartej encyklopedii? Czy w przyszłości modele będą musiały spełniać takie same standardy jak ludzie-edytorzy?

Źródło: Wikipedia, 404media
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 15

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.