Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

AI Overviews Google'a podawało błędne informacje medyczne. Funkcja została wycofana z części zapytań

Maciej Lewczuk | 13-01-2026 16:00 |

AI Overviews Google'a podawało błędne informacje medyczne. Funkcja została wycofana z części zapytańGoogle właśnie usunęło część swoich AI Overviews, automatycznych podsumowań w wynikach wyszukiwania, po śledztwie The Guardian. Ujawniono, że system podaje potencjalnie śmiertelne informacje zdrowotne. To kolejny cios dla flagowej funkcji firmy z Mountain View, która dostarcza użytkownikom więcej problemów niż rozwiązań. Sprawa staje się poważna, gdy AI przestaje radzić dodawanie kleju do pizzy, a zaczyna wpływać na decyzje medyczne milionów ludzi.

Sztuczna inteligencja Google podawała fałszywe informacje o testach wątroby, które mogły sprawić, że poważnie chorzy uznaliby swoje wyniki za normalne i zignorowali konsultację lekarską.

AI Overviews Google'a podawało błędne informacje medyczne. Funkcja została wycofana z części zapytań [1]

Apple planuje rewolucję w aplikacji Zdrowie, wprowadzając wirtualnego lekarza wykorzystującego sztuczną inteligencję

Brytyjski The Guardian przeprowadził w styczniu 2026 roku dochodzenie, które obnażyło fundamentalne wady w sposobie, w jaki Google AI Overviews obsługuje zapytania zdrowotne. Najpoważniejszym przypadkiem było błędne podanie zakresów referencyjnych dla testów funkcji wątroby. System wyrzucał masy liczb bez kontekstu, nie uwzględniając płci, wieku, narodowości czy etnicznego pochodzenia pacjenta. Eksperci z British Liver Trust nazwali to "niebezpiecznym" i "alarmującym", ponieważ poważnie chorzy mogliby uznać nieprawidłowe wyniki za normalne i zignorować dalszą opiekę medyczną. Co gorsze, AI podało pacjentom z rakiem trzustki radę unikania tłustych pokarmów, czyli dokładnie odwrotnie niż zalecają onkolodzy. Pancreatic Cancer UK jasno stwierdziło, że realizowanie takiej porady mogłoby pozbawić chorych wystarczającej ilości kalorii i uniemożliwić chemioterapię lub operację ratującą życie.

Brytyjscy lekarze masowo sięgają po AI. Brak nadzoru i spójnych przepisów może odbić się na bezpieczeństwie pacjentów

Google zareagowało usunięciem AI Overviews dla niektórych zapytań, ale The Guardian szybko odkrył, że niewielkie wariacje tych samych fraz nadal wywołują błędne podsumowania. Problem leży głębiej niż kilka niedokładnych wyników. Tkwi w samej architekturze systemu. Jak pisaliśmy we wrześniu 2025 przy okazji analizy wpływu AI Overviews na ruch organiczny, funkcja ta znacznie zmieniła sposób, w jaki użytkownicy konsumują informacje z wyszukiwarki. Teraz widzimy, że nie tylko zmienia CTR i zachowania, ale także stwarza realne zagrożenie zdrowotne. AI Overviews działa bazując na założeniach, że wysoko rankingowane strony zawierają dokładne informacje, ale algorytm rankingowy Google od lat zmaga się z problemem treści SEO-optymalizowanych i spamu. System teraz karmi te niewiarygodne wyniki do modelu językowego, który następnie streszcza je autorytatywnym tonem mogącym wprowadzać w błąd. Nawet gdy AI czerpie z dokładnych źródeł, model może wyciągać błędne wnioski z danych.

AI Overviews Google'a podawało błędne informacje medyczne. Funkcja została wycofana z części zapytań [2]

Połowa pacjentów z chorobami rzadkimi czeka latami na diagnozę. Model AI popEVE naukowców z Harvardu może to zmienić

To nie pierwszy skandal wokół tej funkcji. W maju 2024 AI Overviews radziło użytkownikom dodawać klej do pizzy i jeść kamienie. Wtedy Google szybko ograniczyło widoczność funkcji. Teraz jednak stawka jest znacznie wyższa. Organizacje takie jak Patient Information Forum i Marie Curie biją na alarm. Ludzie szukają informacji zdrowotnych w momentach kryzysu i niepewności, a niedokładne generowane przez AI podsumowania znajdujące się na szczycie wyników mogą realnie zaszkodzić. Firma Google ma 91 proc. udziału w globalnym rynku wyszukiwarek, dlatego jej odpowiedzialność jest proporcjonalna do tej dominacji. Firma twierdzi, że stale mierzy i ocenia jakość podsumowań oraz że jej wewnętrzny zespół klinicystów sprawdził zgłoszone przypadki i uznał wiele z nich za poprawne. Problem w tym, że nawet jeśli "wiele" jest poprawnych, to te niepoprawne mogą kosztować czyjeś życie. Użytkownicy odkryli już, że wstawianie przekleństw do zapytań całkowicie wyłącza AI Overviews. Może to najlepsza strategia, dopóki Google nie rozwiąże najważniejszych problemów ze swoją "pomocną" i "wiarygodną" sztuczną inteligencją.

Źródło: The Guardian
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 30

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.