AI Overviews Google'a podawało błędne informacje medyczne. Funkcja została wycofana z części zapytań
Google właśnie usunęło część swoich AI Overviews, automatycznych podsumowań w wynikach wyszukiwania, po śledztwie The Guardian. Ujawniono, że system podaje potencjalnie śmiertelne informacje zdrowotne. To kolejny cios dla flagowej funkcji firmy z Mountain View, która dostarcza użytkownikom więcej problemów niż rozwiązań. Sprawa staje się poważna, gdy AI przestaje radzić dodawanie kleju do pizzy, a zaczyna wpływać na decyzje medyczne milionów ludzi.
Sztuczna inteligencja Google podawała fałszywe informacje o testach wątroby, które mogły sprawić, że poważnie chorzy uznaliby swoje wyniki za normalne i zignorowali konsultację lekarską.
Apple planuje rewolucję w aplikacji Zdrowie, wprowadzając wirtualnego lekarza wykorzystującego sztuczną inteligencję
Brytyjski The Guardian przeprowadził w styczniu 2026 roku dochodzenie, które obnażyło fundamentalne wady w sposobie, w jaki Google AI Overviews obsługuje zapytania zdrowotne. Najpoważniejszym przypadkiem było błędne podanie zakresów referencyjnych dla testów funkcji wątroby. System wyrzucał masy liczb bez kontekstu, nie uwzględniając płci, wieku, narodowości czy etnicznego pochodzenia pacjenta. Eksperci z British Liver Trust nazwali to "niebezpiecznym" i "alarmującym", ponieważ poważnie chorzy mogliby uznać nieprawidłowe wyniki za normalne i zignorować dalszą opiekę medyczną. Co gorsze, AI podało pacjentom z rakiem trzustki radę unikania tłustych pokarmów, czyli dokładnie odwrotnie niż zalecają onkolodzy. Pancreatic Cancer UK jasno stwierdziło, że realizowanie takiej porady mogłoby pozbawić chorych wystarczającej ilości kalorii i uniemożliwić chemioterapię lub operację ratującą życie.
Brytyjscy lekarze masowo sięgają po AI. Brak nadzoru i spójnych przepisów może odbić się na bezpieczeństwie pacjentów
Google zareagowało usunięciem AI Overviews dla niektórych zapytań, ale The Guardian szybko odkrył, że niewielkie wariacje tych samych fraz nadal wywołują błędne podsumowania. Problem leży głębiej niż kilka niedokładnych wyników. Tkwi w samej architekturze systemu. Jak pisaliśmy we wrześniu 2025 przy okazji analizy wpływu AI Overviews na ruch organiczny, funkcja ta znacznie zmieniła sposób, w jaki użytkownicy konsumują informacje z wyszukiwarki. Teraz widzimy, że nie tylko zmienia CTR i zachowania, ale także stwarza realne zagrożenie zdrowotne. AI Overviews działa bazując na założeniach, że wysoko rankingowane strony zawierają dokładne informacje, ale algorytm rankingowy Google od lat zmaga się z problemem treści SEO-optymalizowanych i spamu. System teraz karmi te niewiarygodne wyniki do modelu językowego, który następnie streszcza je autorytatywnym tonem mogącym wprowadzać w błąd. Nawet gdy AI czerpie z dokładnych źródeł, model może wyciągać błędne wnioski z danych.
Połowa pacjentów z chorobami rzadkimi czeka latami na diagnozę. Model AI popEVE naukowców z Harvardu może to zmienić
To nie pierwszy skandal wokół tej funkcji. W maju 2024 AI Overviews radziło użytkownikom dodawać klej do pizzy i jeść kamienie. Wtedy Google szybko ograniczyło widoczność funkcji. Teraz jednak stawka jest znacznie wyższa. Organizacje takie jak Patient Information Forum i Marie Curie biją na alarm. Ludzie szukają informacji zdrowotnych w momentach kryzysu i niepewności, a niedokładne generowane przez AI podsumowania znajdujące się na szczycie wyników mogą realnie zaszkodzić. Firma Google ma 91 proc. udziału w globalnym rynku wyszukiwarek, dlatego jej odpowiedzialność jest proporcjonalna do tej dominacji. Firma twierdzi, że stale mierzy i ocenia jakość podsumowań oraz że jej wewnętrzny zespół klinicystów sprawdził zgłoszone przypadki i uznał wiele z nich za poprawne. Problem w tym, że nawet jeśli "wiele" jest poprawnych, to te niepoprawne mogą kosztować czyjeś życie. Użytkownicy odkryli już, że wstawianie przekleństw do zapytań całkowicie wyłącza AI Overviews. Może to najlepsza strategia, dopóki Google nie rozwiąże najważniejszych problemów ze swoją "pomocną" i "wiarygodną" sztuczną inteligencją.
Powiązane publikacje

Microsoft Bing zablokował 1,5 miliona stron Neocities. Twórca platformy bezradny wobec systemu automatycznej obsługi
25
Amazon MGM Studios uruchamia AI Studio. Program beta testów narzędzi AI w produkcji filmowej ruszy w marcu 2026
6
Nintendo nie chciało, więc zrobiło to Hamster Corporation. Virtual Console wraca na Switch 2, ale jest haczyk
2
Claude kontra ChatGPT. Anthropic oficjalnie rezygnuje z modelu reklamowego w chatbotach AI
10







![AI Overviews Google'a podawało błędne informacje medyczne. Funkcja została wycofana z części zapytań [1]](/image/news/2026/01/13_ai_overviews_google_a_podawalo_bledne_informacje_medyczne_funkcja_zostala_wycofana_z_czesci_zapytan_1.jpg)
![AI Overviews Google'a podawało błędne informacje medyczne. Funkcja została wycofana z części zapytań [2]](/image/news/2026/01/13_ai_overviews_google_a_podawalo_bledne_informacje_medyczne_funkcja_zostala_wycofana_z_czesci_zapytan_0.jpg)





