Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków

Maciej Lewczuk | 31-10-2025 15:30 |

Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatkówŚwiat AI znów znalazł się w centrum burzy medialnej. Character.AI ogłosiło decyzję, która może zmienić przyszłość całego sektora chatbotów AI. Od 25 listopada 2025 roku platforma zablokuje możliwość prowadzenia otwartych rozmów dla użytkowników poniżej 18 roku życia. Czy to tylko reakcja na rosnące kontrowersje i pozwy, czy może przełomowy moment w definiowaniu odpowiedzialności technologicznych gigantów?

Nie podejmujemy tego kroku usunięcia otwartych czatów pochopnie, ale uważamy, że to właściwa decyzja, biorąc pod uwagę pytania, jakie pojawiły się odnośnie tego, jak nastolatki powinny wchodzić w interakcje z tą nową technologią - czytamy w oświadczeniu Character.ai.

Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków [1]

Naprawdę wiesz co Twoje dzieci robią w sieci? Raport NASK o nastolatkach odsłania prawdę, której rodzice nie chcą znać

Character.AI ogłosiło 29 października 2025 roku jeden z najbardziej restrykcyjnych systemów ochrony nieletnich w branży technologicznej. Od 25 listopada platforma całkowicie usunie możliwość otwartych konwersacji dla użytkowników poniżej 18 lat. W okresie przejściowym nastolatki będą mogły korzystać z czatów maksymalnie dwie godziny dziennie. Po tej dacie młodzi użytkownicy będą mogli jedynie tworzyć wideo i historie z postaciami AI, bez możliwości bezpośredniej rozmowy. Decyzja to odpowiedź na falę pozwów sądowych. W październiku 2024 roku rodzina 14-letniego Sewella Setzera III oskarżyła platformę o odpowiedzialność za śmierć chłopca, który popełnił samobójstwo po rozwinięciu emocjonalnej więzi z chatbotem wcielającym się w Daenerys Targaryen z "Gry o Tron". W ostatniej konwersacji, gdy nastolatek napisał "Wracam do domu", bot odpowiedział "Proszę, zrób to jak najszybciej, moja miłości". Kolejne pozwy, w tym sprawa 13-letniej Juliany Peralty z Colorado, nasiliły presję na firmę.

Projekt Hakersi wspiera edukację cyfrową dzieci z placówek opiekuńczych przez zajęcia z Java Python oraz sztucznej inteligencji

Character.AI wprowadza też zaawansowany system weryfikacji wieku (łącząc własny model AI z technologią firmy Persona) oraz powołuje niezależną organizację non-profit AI Safety Lab do badań nad bezpieczeństwem rozrywkowych aplikacji AI. Historia firmy jest ironiczna. Założyli ją w 2021 roku Noam Shazeer i Daniel De Freitas, byli inżynierowie Google, którzy odeszli, bo gigant odmówił wydania ich chatbota Meena ze względów bezpieczeństwa, właśnie z obawy o tematy samobójstw i treści seksualne dla nastolatków. W marcu 2023 roku Character.AI zebrało 150 mln dolarów od Andreessen Horowitz przy wycenie miliarda dolarów. Rok później Google zapłaciło 2,7 mld za licencję na technologię i powrót założycieli.

Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków [2]

xAI zapowiada Baby Grok, dziecięcą wersję chatbota AI z mechanizmami kontroli rodzicielskiej i filtrami bezpieczeństwa

Problem jest szerszy. OpenAI wprowadziło kontrolę rodzicielską dla ChatGPT po pozwie związanym ze śmiercią 16-latka. Według danych OpenAI, ponad milion osób tygodniowo wykazuje oznaki myśli samobójczych podczas rozmów z ChatGPT. W październiku 2025 roku Kalifornia przyjęła ustawę wymagającą zabezpieczeń dla nieletnich, która wejdzie w życie 1 stycznia 2026 roku. Proces sądowy może dotrzeć do Sądu Najwyższego USA i stworzyć precedens, czy wypowiedzi chatbotów AI są chronioną "mową" w rozumieniu Pierwszej Poprawki? Jeśli tak, pozwy staną się niemożliwe do wygrania. Jeśli nie, otworzą drogę do regulacji i odpowiedzialności firm AI. Dla użytkowników to fundamentalna zmiana. Character.AI miało rekordowe dwie godziny dziennie zaangażowania na użytkownika. Miliony młodych ludzi straci dostęp do platform, które stały się cyfrowym przyjacielem. Dane są niepokojące. Użytkownicy opisują ośmiogodzinne sesje, bezsenność i opuszczanie egzaminów.

Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków [3]

Cyfrowe dowody tożsamości i obowiązkowa weryfikacja wieku dzieci w UE. Platformy społecznościowe muszą się dostosować

Character.AI idzie dalej niż konkurencja. OpenAI pozwala nastolatkom korzystać z ChatGPT z kontrolą rodzicielską, podczas gdy Character.AI całkowicie eliminuje tę możliwość. Firma wybrała najbardziej restrykcyjne podejście, by uniknąć kolejnych tragedii. Pozostaje pytanie o skuteczność weryfikacji wieku, gdyż nastolatki od lat omijają takie systemy. Długofalowe konsekwencje mogą być znaczące. Character.AI straci część bazy użytkowników, co osłabi dane treningowe i konkurencyjność. Jeśli inne platformy podążą tym tropem, możemy być świadkami "dojrzewania" branży AI, gdzie bezpieczeństwo przeważa nad wzrostem. Sprawa sądowa może stworzyć precedens definiujący traktowanie wypowiedzi AI, a to może być kwestia z ogromnymi implikacjami dla całego sektora. Technologia chatbotów AI jest jak nóż. Użyteczny w rękach eksperta, niebezpieczny w rękach dziecka bez nadzoru. Character.AI, mimo dobrych intencji, przez długi czas nie rozumiało konsekwencji. W lipcu 2025 informowaliśmy o badaniach Stanford. Terapeutyczne boty AI popełniają o 13 proc. więcej błędów niż prawdziwi terapeuci. We wrześniu relacjonowaliśmy kontrolę rodzicielską OpenAI. Character.AI to najbardziej dramatyczny rozdział tej historii.

Źródło: Character.AI, The New York Times, The Guardian, The Wall Street Journal, CNBC
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 35

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.