Wikimedia Foundation rezygnuje z testów i wprowadzenia funkcji AI. Funkcja podsumowań nie została uruchomiona
Wikipedia od lat stanowi jedno z najważniejszych źródeł wiedzy dostępnych online. Jest otwarte, bezpłatne i tworzone przez społeczność użytkowników z całego świata. Jako projekt bazujący na współpracy i transparentnych zasadach redakcyjnych, pełni kluczową rolę w upowszechnianiu rzetelnych informacji. Wikipedia eksperymentuje jednak z nowymi rozwiązaniami, próbując pogodzić automatyzację z zachowaniem wysokiej jakości treści.
Planowane przez Wikipedię podsumowania AI wzbudziły obawy o brak źródeł, kontekstu, a także przejrzystości edytorskiej.
Użytkownicy skarżą się, że ChatGPT zbyt często ich chwali. Czy sztuczna inteligencja przestała mówić prawdę?
W odpowiedzi na wzrost popularności narzędzi generatywnej AI, Wikimedia Foundation rozpoczęła testy uproszczonych podsumowań haseł w angielskiej wersji Wikipedii. Funkcja ta miała zostać uruchomiona w ramach dwutygodniowego eksperymentu w wersji mobilnej Wikipedii, jednak została wstrzymana jeszcze przed startem. Planowano użycie otwartoźródłowego modelu językowego Aya firmy Cohere. Jednak w ciągu zaledwie kilkunastu dni społeczność redaktorów wyraziła zdecydowany sprzeciw. Krytykowano brak możliwości edycji, nieprzejrzystość źródeł, błędy merytoryczne i fakt, że algorytm działał jak czarna skrzynka, niezgodna z zasadą transparentności redakcyjnej. W efekcie fundacja tymczasowo wycofała funkcję z użytku i ogłosiła zamiar dalszych konsultacji ze społecznością.
Zdjęcia na Instagramie nie tylko w dwóch formatach. Popularna platforma oferuje już wsparcie dla mobilnych proporcji
Sprawa ujawnia rosnące napięcie pomiędzy automatyzacją a kontrolą jakości w środowiskach współtworzonych przez społeczność. Chociaż AI może znacząco przyspieszyć przetwarzanie treści, jej wykorzystanie w encyklopedii bazującej na ludzkiej weryfikacji, a także konsensusie rodzi pytania o granice automatyzacji. Edytorzy zwrócili uwagę, że wygenerowane streszczenia bywały niedokładne, a czasem zniekształcały sens artykułu, co przy globalnym zasięgu Wikipedii może mieć poważne konsekwencje. Problem dotyka też kwestii odpowiedzialności, kto ponosi winę za błąd AI w otwartej encyklopedii? Czy w przyszłości modele będą musiały spełniać takie same standardy jak ludzie-edytorzy?
Powiązane publikacje

Jaki Linux do gier? Który układ graficzny? Nowe statystyki ze Steam ukazują, jak wygląda granie w świecie Open Source (częściowo)
102
Cloudflare uruchamia system Pay Per Crawl dla monetyzacji botów AI szukających danych treningowych
9
Murena Find to wyszukiwarka, która szanuje prywatność. Alternatywa dla DuckDuckGo, która ma dużo wspólnego z Qwant
20
Facebook wkrótce zaakceptuje tylko rolki. Pionowy format wypiera inne, a Meta zdejmuje z niego ograniczenia
25