Wikimedia Foundation rezygnuje z testów i wprowadzenia funkcji AI. Funkcja podsumowań nie została uruchomiona
Wikipedia od lat stanowi jedno z najważniejszych źródeł wiedzy dostępnych online. Jest otwarte, bezpłatne i tworzone przez społeczność użytkowników z całego świata. Jako projekt bazujący na współpracy i transparentnych zasadach redakcyjnych, pełni kluczową rolę w upowszechnianiu rzetelnych informacji. Wikipedia eksperymentuje jednak z nowymi rozwiązaniami, próbując pogodzić automatyzację z zachowaniem wysokiej jakości treści.
Planowane przez Wikipedię podsumowania AI wzbudziły obawy o brak źródeł, kontekstu, a także przejrzystości edytorskiej.
Użytkownicy skarżą się, że ChatGPT zbyt często ich chwali. Czy sztuczna inteligencja przestała mówić prawdę?
W odpowiedzi na wzrost popularności narzędzi generatywnej AI, Wikimedia Foundation rozpoczęła testy uproszczonych podsumowań haseł w angielskiej wersji Wikipedii. Funkcja ta miała zostać uruchomiona w ramach dwutygodniowego eksperymentu w wersji mobilnej Wikipedii, jednak została wstrzymana jeszcze przed startem. Planowano użycie otwartoźródłowego modelu językowego Aya firmy Cohere. Jednak w ciągu zaledwie kilkunastu dni społeczność redaktorów wyraziła zdecydowany sprzeciw. Krytykowano brak możliwości edycji, nieprzejrzystość źródeł, błędy merytoryczne i fakt, że algorytm działał jak czarna skrzynka, niezgodna z zasadą transparentności redakcyjnej. W efekcie fundacja tymczasowo wycofała funkcję z użytku i ogłosiła zamiar dalszych konsultacji ze społecznością.
Zdjęcia na Instagramie nie tylko w dwóch formatach. Popularna platforma oferuje już wsparcie dla mobilnych proporcji
Sprawa ujawnia rosnące napięcie pomiędzy automatyzacją a kontrolą jakości w środowiskach współtworzonych przez społeczność. Chociaż AI może znacząco przyspieszyć przetwarzanie treści, jej wykorzystanie w encyklopedii bazującej na ludzkiej weryfikacji, a także konsensusie rodzi pytania o granice automatyzacji. Edytorzy zwrócili uwagę, że wygenerowane streszczenia bywały niedokładne, a czasem zniekształcały sens artykułu, co przy globalnym zasięgu Wikipedii może mieć poważne konsekwencje. Problem dotyka też kwestii odpowiedzialności, kto ponosi winę za błąd AI w otwartej encyklopedii? Czy w przyszłości modele będą musiały spełniać takie same standardy jak ludzie-edytorzy?
Powiązane publikacje

Zarządzanie zakupami w Gmailu będzie jeszcze prostsze. Google ogłasza nowości, które zmienią działanie tej skrzynki
15
Google w sądzie twierdzi, że otwarty internet umiera. A jeszcze niedawno zapewniali że wszystko kwitnie i ma się doskonale
29
Analiza wpływu Google AI Overviews na ruch organiczny. Spadek CTR o 19,4 proc. w polskich wyszukiwarkach według Senuto
12
Instagram oficjalnie trafia na tablety Apple iPad. Z pewnej zmiany skorzystają także tablety z Androidem
5