Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Śledztwo Time: za dobrym wychowaniem ChatGPT stoi wyzysk i narażanie na problemy psychiczne

Marcin Kozak | 20-01-2023 10:30 |

Śledztwo Time: za dobrym wychowaniem ChatGPT stoi wyzysk i narażanie na problemy psychiczneZa nowymi, olśniewającymi technologiami często skrywają się w cieniu chałupnicze metody i wyzysk. Firmy takie jak Meta potrzebują rzeszy pracowników do ręcznego zarządzania zgłoszonymi przez użytkowników treściami. Również modele sztucznej inteligencji potrzebują wsparcia, gdy należy oczyścić ich bazy treningowe od nadmiaru materiałów, które mogą zdeformować sposób myślenia AI.

Twórcy ChatGPT postanowili niskim kosztem oduczyć swoje dzieło negatywnych zachowań. Skorzystali z usług kenijskich robotników, którym płacono mniej niż 2 dolary za każdą godzinę pracy z drastycznymi treściami. Była to aktywność kluczowa z perspektywy rozwoju produktu, gdyż poprzednia wersja ChatGPT miała problem z wyeliminowaniem między innymi treści rasistowskich ze swojego repertuaru odpowiedzi.

Śledztwo Time: za dobrym wychowaniem ChatGPT stoi wyzysk i narażanie na problemy psychiczne [1]

ChatGPT rośnie w siłę. Model 4.0, integracja z produktami Microsoftu, wejście w świat nauki i płatny pakiet premium

Pracownicy zewnętrzni byli potrzebni OpenAI od listopada 2021 roku, kiedy to wysłano na serwery firmy outsourcingowej Sama (operującej też dla Meta czy Google) tysiące danych z różnych zakątkach sieci - w tym z jej najciemniejszych zakamarków. Zadanie pracowników z Kenii polegało na oznaczaniu tekstowych materiałów zawierających opisy seksualnego wykorzystywania dzieci, morderstw, samobójstw, tortur, samookaleczeń i kazirodztwa jako źródło złych wzorców do nauki dla AI. Wynagrodzenie sięgało od 1,32 do 2 dolarów za godzinę (jest to blisko realnej płacy minimalnej w Kenii). Na podstawie obecnej kondycji modelu ChatGPT można stwierdzić, że odnieśli sukces.

Śledztwo Time: za dobrym wychowaniem ChatGPT stoi wyzysk i narażanie na problemy psychiczne [2]

ChatGPT - popularny bot jest w stanie napisać także złośliwe oprogramowanie. Każdy może stać się hakerem?

Problemem nie była jednak sama stawka. Poddane analizie materiały rzeczywiście stanowiły ekstrakt złych ludzkich cech. W efekcie pracownicy byli zmuszeni do wielogodzinnego mierzenia się z drastycznymi treściami, co doprowadziło wielu z nich do problemów psychicznych. Jak wskazuje "Time", szwankował dostęp do pomocy psychologicznej. Wątpliwości budził również system weryfikacji nagród i premii, który wyróżniał osoby pracujące szybko (co zazwyczaj nie razi, ale w tym przypadku prowadziło do szybkiego wypalenia zawodowego). Co więcej, OpenAI w lutym 2022 roku zleciło zebranie materiałów pod postacią obrazów, które cechowały się jeszcze ostrzejszą treścią (podobno niezwiązanych z projektem ChatGPT). To spowodowało przedwczesne zakończenie kontraktu, gdyż samo posiadanie treści tego rodzaju jest bezprawne (na przykład pedofilskich). Przed ostatecznym zakończeniem współpracy przez Sama, organizacja OpenAI otrzymała 1400 plików o wrażliwej zawartości (zaklasyfikowanych do różnych kategorii).

Śledztwo Time: za dobrym wychowaniem ChatGPT stoi wyzysk i narażanie na problemy psychiczne [3]

Sztuczna inteligencja pomaga przewidywać trzęsienia ziemi

Przedstawione doniesienia prasowe z pewnością nie pomogą OpenAI w pozyskiwaniu funduszy. Korzystanie z tak nisko opłacanej siły roboczej połączonej z psychiczną eksploatacją budzi zwyczajnie niesmak w zestawieniu z kwotami, jakie organizacja zdobywa od inwestorów. Sytuacja domaga się wyjaśnienia, szczególnie w świetle informacji o trwających rozmowach z Microsoftem dotyczących finansowania rzędu 10 miliardów dolarów. Reportaż "Time" stawia OpenAI w pozycji na wskroś dystopijnej - za genialnym wynalazkiem stoją w dużej mierze pomijane jednostki, których żmudna praca w żaden sposób nie została odnotowana. Pokazuje też, jak sztuczna inteligencja daleko stoi od samodzielności w procesie nauki. Historia z Kenii przypomina, że rozum AI wciąż opiera się na wyczerpującym klikaniu człowieka w klawiaturę.

Źródło: Time
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 34

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.