Character.AI
Regulatorzy w USA chcą informacji od OpenAI, Meta i Character.AI o zabezpieczeniach chatbotów dla młodych użytkowników
AI coraz śmielej wkracza w nasze życie, a chatboty potrafią już nie tylko odpowiadać na pytania, ale także imitować ludzkie emocje i budować relacje. Stają się cyfrowymi przyjaciółmi, zwłaszcza dla młodych osób. Taka zażyłość budzi jednak obawy o bezpieczeństwo i prywatność. Rozwój tej technologii przyciągnął uwagę amerykańskich regulatorów, którzy postanowili bliżej przyjrzeć się działaniom największych firm z branży i potencjalnym zagrożeniom, jakie mogą stwarzać ich produkty.
Terapeuta AI może ci zaszkodzić. Stanford ujawnia niepokojące fakty o chatbotach. Mogą popełniać o 1/3 więcej błędów niż ludzie
Naukowcy ze Stanford University przeprowadzili szczegółowe badanie pięciu popularnych chatbotów terapeutycznych. Wyniki pokazują niepokojące trendy związane z bezpieczeństwem AI w zdrowiu psychicznym. Zespół badawczy pod kierownictwem Nicka Habera z Stanford Graduate School of Education przeanalizował platformy takie jak Character.ai i 7cups. Okazuje się, że sztuczna inteligencja może nie tylko nie pomagać pacjentom, ale wręcz im szkodzić.




























Test Battlefield 6 - Analiza jakości obrazu, wydajności DLSS 4 oraz wpływu Multi Frame Generation na opóźnienia systemowe
Test wydajności Battlefield 6 - Wymagania sprzętowe nie zabijają, ale graficznie również bez fajerwerków
Pudełko, sprzęt i dokumentacja - czy potrzeba czegoś więcej? Sony i Apple pokazują, że nie. W ślad za ładowarkami mogą iść przewody...
Koniec z instalacją Windows 11 bez konta Microsoft. Popularne triki przestają działać w nowych wersjach systemu
Karty graficzne NVIDIA GeForce RTX 5000 SUPER dalekie od debiutu. Premiera może odbyć się bliżej połowy 2026 roku