Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
.
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi

Natan Faleńczyk | 22-02-2024 18:00 |

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludziNie tak dawno Google oficjalnie pożegnało chatbota Barda i zastąpiło go bardziej zaawansowaną wersją, którą nazwano Gemini. Nowa usługa była w stanie także generować obrazy, z czego większość użytkowników chętnie korzystała. Szybko okazało się jednak, że tworzone w ten sposób grafiki są... niezbyt poprawne pod kątem historycznym, a dodatkowo z jakiegoś powodu model unika generowania ludzi należących do białej rasy. Padły więc oskarżenia o rasizm.

Chatbot Gemini od Google spotkał się z falą krytyki, która dotyczyła kwestii rasizmu. Co jednak ciekawe - w stosunku do ludzi o jasnej karnacji skóry. Powodem była dodatkowa funkcja, która pozwalała generować obrazy. Nie były one poprawne pod kątem historycznym, a dodatkowo ludzie z białej rasy byli omijani szerokim łukiem.

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [1]

Google Bard - chatbot przekształca się w Gemini. Pełnia możliwości została ukryta za ścianą subskrypcji

Google ma więc kolejną „wpadkę” za sobą. Najpierw dotyczyła ona chatbota Google Bard, który podał fałszywe informacje podczas oficjalnego debiutu, a teraz jego duchowy następca musi mierzyć się z falą krytyki. Dzięki usłudze Gemini wielu użytkowników miało możliwość tworzenia obrazów z opisów tekstowych, jak to obecnie umożliwia także ChatGPT w płatnej wersji. Dość szybko zaczęto dostrzegać, że w przypadku generowania ludzi dominują czarnoskóre osoby, a „biali” są pomijani (często nawet nie było możliwe wygenerowanie „białych” osób, natomiast z innymi rasami problem nie występował). Uwidaczniało się to również w momencie, kiedy poleceniem było wygenerowanie historycznych postaci na wybranych stanowiskach np. dawnego króla Anglii. Także wtedy usługa przekłamywała rzeczywistość. Wszystko zdawało się obalać stereotypy, jednak w bardzo dziwny sposób, jak choćby przedstawianie niemieckich żołnierzy w trakcie II wojny światowej jako osoby praktycznie z każdej narodowości (np. Azjaci).

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [2]Poleceniem dla generatora było zobrazowanie króla Anglii - oczywiście nie było mowy o kolorze skóry, czy też konkretnych cechach.

Gemini - Google prezentuje nowy, multimodalny model sztucznej inteligencji. Możliwościami wyprzedza ChatGPT

Przykłady daleko idącej „poprawności politycznej” zaczęły zalewać internet, więc Google musiało się w końcu jakoś do tego ustosunkować. Najpierw firma przeprosiła za niepoprawne i niedokładne generowanie obrazów, a niecałe 24 godziny później funkcjonalność została wyłączona. Obecnie przedsiębiorstwo pracuje nad tym, aby rozwiązać tę niedogodność. Patrząc obiektywnie na całą sytuację, można dostrzec, że mogła to być próba walki ze wspomnianymi stereotypami, a także z dyskryminacją na tle rasowym. Generatory obrazów były szkolone na ogromnych zbiorach danych, więc są na te aspekty jak najbardziej podatne. Ostatecznie jednak działania Google przesunęły zbyt drastycznie granicę w jedną stronę i zamiast polepszyć sytuację na tym polu, znowu doszło do wirtualnych zamieszek.

 

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [3]

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [4]

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [5]

Źródło: Google, X @altryne, m_wacker, IMAO_
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 78

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.