Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Character.AI

Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków

Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków

Świat AI znów znalazł się w centrum burzy medialnej. Character.AI ogłosiło decyzję, która może zmienić przyszłość całego sektora chatbotów AI. Od 25 listopada 2025 roku platforma zablokuje możliwość prowadzenia otwartych rozmów dla użytkowników poniżej 18 roku życia. Czy to tylko reakcja na rosnące kontrowersje i pozwy, czy może przełomowy moment w definiowaniu odpowiedzialności technologicznych gigantów?

Regulatorzy w USA chcą informacji od OpenAI, Meta i Character.AI o zabezpieczeniach chatbotów dla młodych użytkowników

Regulatorzy w USA chcą informacji od OpenAI, Meta i Character.AI o zabezpieczeniach chatbotów dla młodych użytkowników

AI coraz śmielej wkracza w nasze życie, a chatboty potrafią już nie tylko odpowiadać na pytania, ale także imitować ludzkie emocje i budować relacje. Stają się cyfrowymi przyjaciółmi, zwłaszcza dla młodych osób. Taka zażyłość budzi jednak obawy o bezpieczeństwo i prywatność. Rozwój tej technologii przyciągnął uwagę amerykańskich regulatorów, którzy postanowili bliżej przyjrzeć się działaniom największych firm z branży i potencjalnym zagrożeniom, jakie mogą stwarzać ich produkty.

Terapeuta AI może ci zaszkodzić. Stanford ujawnia niepokojące fakty o chatbotach. Mogą popełniać o 1/3 więcej błędów niż ludzie

Terapeuta AI może ci zaszkodzić. Stanford ujawnia niepokojące fakty o chatbotach. Mogą popełniać o 1/3 więcej błędów niż ludzie

Naukowcy ze Stanford University przeprowadzili szczegółowe badanie pięciu popularnych chatbotów terapeutycznych. Wyniki pokazują niepokojące trendy związane z bezpieczeństwem AI w zdrowiu psychicznym. Zespół badawczy pod kierownictwem Nicka Habera z Stanford Graduate School of Education przeanalizował platformy takie jak Character.ai i 7cups. Okazuje się, że sztuczna inteligencja może nie tylko nie pomagać pacjentom, ale wręcz im szkodzić.

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.