Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Character.AI

Regulatorzy w USA chcą informacji od OpenAI, Meta i Character.AI o zabezpieczeniach chatbotów dla młodych użytkowników

Regulatorzy w USA chcą informacji od OpenAI, Meta i Character.AI o zabezpieczeniach chatbotów dla młodych użytkowników

AI coraz śmielej wkracza w nasze życie, a chatboty potrafią już nie tylko odpowiadać na pytania, ale także imitować ludzkie emocje i budować relacje. Stają się cyfrowymi przyjaciółmi, zwłaszcza dla młodych osób. Taka zażyłość budzi jednak obawy o bezpieczeństwo i prywatność. Rozwój tej technologii przyciągnął uwagę amerykańskich regulatorów, którzy postanowili bliżej przyjrzeć się działaniom największych firm z branży i potencjalnym zagrożeniom, jakie mogą stwarzać ich produkty.

Terapeuta AI może ci zaszkodzić. Stanford ujawnia niepokojące fakty o chatbotach. Mogą popełniać o 1/3 więcej błędów niż ludzie

Terapeuta AI może ci zaszkodzić. Stanford ujawnia niepokojące fakty o chatbotach. Mogą popełniać o 1/3 więcej błędów niż ludzie

Naukowcy ze Stanford University przeprowadzili szczegółowe badanie pięciu popularnych chatbotów terapeutycznych. Wyniki pokazują niepokojące trendy związane z bezpieczeństwem AI w zdrowiu psychicznym. Zespół badawczy pod kierownictwem Nicka Habera z Stanford Graduate School of Education przeanalizował platformy takie jak Character.ai i 7cups. Okazuje się, że sztuczna inteligencja może nie tylko nie pomagać pacjentom, ale wręcz im szkodzić.

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.