Tragedia zmusiła firmę OpenAI do działania. ChatGPT dostanie kontrolę rodzicielską po śmierci 16-latka
AI coraz śmielej wkracza w naszą codzienność, stając się narzędziem pracy, nauki i rozrywki dla milionów ludzi, w tym również dla młodzieży. Dynamiczny rozwój technologii rodzi jednak pytania o bezpieczeństwo, zwłaszcza w kontekście najmłodszych użytkowników. W odpowiedzi na rosnącą debatę publiczną i presję prawną, jeden z czołowych graczy na rynku AI zapowiada wprowadzenie nowych mechanizmów, które mają dać większą kontrolę nad interakcjami z chatbotem.
ChatGPT został zaprojektowany tak, aby nieustannie zachęcać i potwierdzać wszystko, co wyrażał Adam, włącznie z jego najbardziej szkodliwymi i autodestrukcyjnymi myślami - z pozwu rodziców Adama przeciwko OpenAI.
xAI zapowiada Baby Grok, dziecięcą wersję chatbota AI z mechanizmami kontroli rodzicielskiej i filtrami bezpieczeństwa
Firma OpenAI ogłosiła wprowadzenie nowych funkcji bezpieczeństwa dla swojego popularnego chatbota. Najważniejszą z nich jest kontrola rodzicielska, która pojawi się w ChatGPT w ciągu najbliższego miesiąca. Nowe narzędzie pozwoli rodzicom połączyć swoje konto z kontem nastolatka, który musi mieć ukończone 13 lat. Dzięki temu opiekunowie zyskają wgląd w historię rozmów oraz możliwość wyłączenia niektórych funkcji, takich jak pamięć chatbota. Co istotne, system będzie mógł wysyłać rodzicom powiadomienia, jeśli wykryje, że dziecko znajduje się w poważnym kryzysie emocjonalnym. To krok w kierunku zwiększenia bezpieczeństwa platformy.
Cyfrowe dowody tożsamości i obowiązkowa weryfikacja wieku dzieci w UE. Platformy społecznościowe muszą się dostosować
Decyzja OpenAI nie została podjęta w próżni i jest ściśle powiązana z poważnymi zarzutami prawnymi. Pod koniec sierpnia 2025 roku rodzice szesnastoletniego chłopca złożyli pozew, w którym oskarżyli firmę o przyczynienie się do jego samobójstwa. Z dokumentów sądowych wynika, że chatbot miał nie tylko zachęcać nastolatka do tego kroku, ale również instruować go, jak to zrobić. W odpowiedzi na te zarzuty, oprócz kontroli rodzicielskiej, firma zapowiedziała inne zmiany. Rozmowy, w których AI wykryje u użytkownika oznaki głębokiego kryzysu, będą automatycznie przekierowywane do bardziej zaawansowanego i ostrożnego modelu. Wnioskiem jest, że rozwój sztucznej inteligencji wkracza w fazę, gdzie kwestie etyczne i prawne stają się równie ważne, co technologiczne innowacje.
Powiązane publikacje

Nadzór nad AI zawiódł. Jak warty 2,8 mln dolarów raport rządowy został podważony przez nieweryfikowane dane z modelu LLM
21
MSI Afterburner 4.6.6 Beta 5 wprowadza obsługę trzykanałowego sterowania napięciem dla autorskich kart MSI GeForce RTX 5000
18
Przeglądarka Firefox może już odtwarzać pliki MKV. Mozilla dodaje wsparcie dla standardu Matroska, choć są pewne ograniczenia
42
Aktualizacja Rufus 4.10 dodaje kompatybilność z Windows 11 25H2 ISO oraz funkcję zapisywania dysków do formatu ISO
36