Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków
Świat AI znów znalazł się w centrum burzy medialnej. Character.AI ogłosiło decyzję, która może zmienić przyszłość całego sektora chatbotów AI. Od 25 listopada 2025 roku platforma zablokuje możliwość prowadzenia otwartych rozmów dla użytkowników poniżej 18 roku życia. Czy to tylko reakcja na rosnące kontrowersje i pozwy, czy może przełomowy moment w definiowaniu odpowiedzialności technologicznych gigantów?
Nie podejmujemy tego kroku usunięcia otwartych czatów pochopnie, ale uważamy, że to właściwa decyzja, biorąc pod uwagę pytania, jakie pojawiły się odnośnie tego, jak nastolatki powinny wchodzić w interakcje z tą nową technologią - czytamy w oświadczeniu Character.ai.
Naprawdę wiesz co Twoje dzieci robią w sieci? Raport NASK o nastolatkach odsłania prawdę, której rodzice nie chcą znać
Character.AI ogłosiło 29 października 2025 roku jeden z najbardziej restrykcyjnych systemów ochrony nieletnich w branży technologicznej. Od 25 listopada platforma całkowicie usunie możliwość otwartych konwersacji dla użytkowników poniżej 18 lat. W okresie przejściowym nastolatki będą mogły korzystać z czatów maksymalnie dwie godziny dziennie. Po tej dacie młodzi użytkownicy będą mogli jedynie tworzyć wideo i historie z postaciami AI, bez możliwości bezpośredniej rozmowy. Decyzja to odpowiedź na falę pozwów sądowych. W październiku 2024 roku rodzina 14-letniego Sewella Setzera III oskarżyła platformę o odpowiedzialność za śmierć chłopca, który popełnił samobójstwo po rozwinięciu emocjonalnej więzi z chatbotem wcielającym się w Daenerys Targaryen z "Gry o Tron". W ostatniej konwersacji, gdy nastolatek napisał "Wracam do domu", bot odpowiedział "Proszę, zrób to jak najszybciej, moja miłości". Kolejne pozwy, w tym sprawa 13-letniej Juliany Peralty z Colorado, nasiliły presję na firmę.
Projekt Hakersi wspiera edukację cyfrową dzieci z placówek opiekuńczych przez zajęcia z Java Python oraz sztucznej inteligencji
Character.AI wprowadza też zaawansowany system weryfikacji wieku (łącząc własny model AI z technologią firmy Persona) oraz powołuje niezależną organizację non-profit AI Safety Lab do badań nad bezpieczeństwem rozrywkowych aplikacji AI. Historia firmy jest ironiczna. Założyli ją w 2021 roku Noam Shazeer i Daniel De Freitas, byli inżynierowie Google, którzy odeszli, bo gigant odmówił wydania ich chatbota Meena ze względów bezpieczeństwa, właśnie z obawy o tematy samobójstw i treści seksualne dla nastolatków. W marcu 2023 roku Character.AI zebrało 150 mln dolarów od Andreessen Horowitz przy wycenie miliarda dolarów. Rok później Google zapłaciło 2,7 mld za licencję na technologię i powrót założycieli.
xAI zapowiada Baby Grok, dziecięcą wersję chatbota AI z mechanizmami kontroli rodzicielskiej i filtrami bezpieczeństwa
Problem jest szerszy. OpenAI wprowadziło kontrolę rodzicielską dla ChatGPT po pozwie związanym ze śmiercią 16-latka. Według danych OpenAI, ponad milion osób tygodniowo wykazuje oznaki myśli samobójczych podczas rozmów z ChatGPT. W październiku 2025 roku Kalifornia przyjęła ustawę wymagającą zabezpieczeń dla nieletnich, która wejdzie w życie 1 stycznia 2026 roku. Proces sądowy może dotrzeć do Sądu Najwyższego USA i stworzyć precedens, czy wypowiedzi chatbotów AI są chronioną "mową" w rozumieniu Pierwszej Poprawki? Jeśli tak, pozwy staną się niemożliwe do wygrania. Jeśli nie, otworzą drogę do regulacji i odpowiedzialności firm AI. Dla użytkowników to fundamentalna zmiana. Character.AI miało rekordowe dwie godziny dziennie zaangażowania na użytkownika. Miliony młodych ludzi straci dostęp do platform, które stały się cyfrowym przyjacielem. Dane są niepokojące. Użytkownicy opisują ośmiogodzinne sesje, bezsenność i opuszczanie egzaminów.
Cyfrowe dowody tożsamości i obowiązkowa weryfikacja wieku dzieci w UE. Platformy społecznościowe muszą się dostosować
Character.AI idzie dalej niż konkurencja. OpenAI pozwala nastolatkom korzystać z ChatGPT z kontrolą rodzicielską, podczas gdy Character.AI całkowicie eliminuje tę możliwość. Firma wybrała najbardziej restrykcyjne podejście, by uniknąć kolejnych tragedii. Pozostaje pytanie o skuteczność weryfikacji wieku, gdyż nastolatki od lat omijają takie systemy. Długofalowe konsekwencje mogą być znaczące. Character.AI straci część bazy użytkowników, co osłabi dane treningowe i konkurencyjność. Jeśli inne platformy podążą tym tropem, możemy być świadkami "dojrzewania" branży AI, gdzie bezpieczeństwo przeważa nad wzrostem. Sprawa sądowa może stworzyć precedens definiujący traktowanie wypowiedzi AI, a to może być kwestia z ogromnymi implikacjami dla całego sektora. Technologia chatbotów AI jest jak nóż. Użyteczny w rękach eksperta, niebezpieczny w rękach dziecka bez nadzoru. Character.AI, mimo dobrych intencji, przez długi czas nie rozumiało konsekwencji. W lipcu 2025 informowaliśmy o badaniach Stanford. Terapeutyczne boty AI popełniają o 13 proc. więcej błędów niż prawdziwi terapeuci. We wrześniu relacjonowaliśmy kontrolę rodzicielską OpenAI. Character.AI to najbardziej dramatyczny rozdział tej historii.
Powiązane publikacje

Firma OpenAI planuje wejście na giełdę z wyceną do biliona dolarów. Giełdowy debiut może nastąpić już w 2026 roku
17
NVIDIA pierwszą firmą w historii wartą 5 bilionów dolarów. Gigant AI osiągnął kapitalizację większą niż cały rynek kryptowalut
34
Miliony na ekspansję. Czy ten program to najlepsza szansa dla Twojego pomysłu? Zobacz, jak działa Startups Exchange
9
Amazon zwolni 30 000 pracowników korporacyjnych w największej redukcji od 2022 roku, a CEO jawnie mówi o AI
43







![Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków [1]](/image/news/2025/10/31_character_ai_blokuje_dostep_dla_uzytkownikow_ponizej_18_roku_zycia_po_serii_pozwow_o_samobojstwa_nastolatkow_4.jpg)
![Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków [2]](/image/news/2025/10/31_character_ai_blokuje_dostep_dla_uzytkownikow_ponizej_18_roku_zycia_po_serii_pozwow_o_samobojstwa_nastolatkow_3.jpg)
![Character.AI blokuje dostęp dla użytkowników poniżej 18 roku życia po serii pozwów o samobójstwa nastolatków [3]](/image/news/2025/10/31_character_ai_blokuje_dostep_dla_uzytkownikow_ponizej_18_roku_zycia_po_serii_pozwow_o_samobojstwa_nastolatkow_1.jpg)





