ChatGPT z nowym mechanizmem kontroli dostępu. OpenAI testuje model AI do predykcji wieku użytkownika i opcję weryfikacji ID
Firmy takie jak OpenAI intensywnie pracują nad systemami, które mają chronić młodszych użytkowników przed nieodpowiednimi materiałami. W odpowiedzi na rosnącą presję regulacyjną i społeczną, twórcy ChataGPT badają dwa odmienne podejścia do tego problemu. Jedno z nich bazuje na zaawansowanej technologii, a drugie na tradycyjnych metodach. Wynika z tego, że kwestie bezpieczeństwa użytkowników stają się równie ważne co innowacje technologiczne.
Firma OpenAI bada dwa sposoby weryfikacji wieku użytkowników ChatGPT, czyli wymaganie dokumentu tożsamości od dorosłych i model AI szacujący wiek na podstawie stylu konwersacji.
Tragedia zmusiła firmę OpenAI do działania. ChatGPT dostanie kontrolę rodzicielską po śmierci 16-latka
Firma OpenAI ogłosiła prace nad systemem, który ma rozwiązać problem dostępu nieletnich do nieodpowiednich treści w ChatGPT. Rozważane są dwa główne podejścia. Pierwsze zakłada wprowadzenie twardej weryfikacji tożsamości dla osób dorosłych. Użytkownicy, którzy potwierdzą swój wiek za pomocą oficjalnego dokumentu, mieliby uzyskać dostęp do mniej ocenzurowanej wersji czatbota. Drugim, bardziej innowacyjnym rozwiązaniem jest model sztucznej inteligencji przeznaczony do predykcji (przewidywania) wieku. System ten, zamiast prosić o dane, analizowałby styl prowadzonej konwersacji, używane słownictwo czy tematykę zapytań. Na tej podstawie szacowałby, czy użytkownik jest osobą pełnoletnią. W przypadku wątpliwości lub wykrycia cech charakterystycznych dla osoby nieletniej, ChatGPT automatycznie przełączałby się w tryb z bardziej restrykcyjnymi zasadami bezpieczeństwa.
Oficjalne badanie pokazuje prawdziwe zastosowania ChatGPT. Pisanie dominuje w pracy, programowanie to tylko 4,2 proc. użycia
Działania te są odpowiedzią na rosnącą presję społeczną i regulacyjną. Kwestie bezpieczeństwa najmłodszych w internecie stają się priorytetem, o czym pisaliśmy już w kontekście unijnych regulacji dotyczących cyfrowych dowodów tożsamości. OpenAI podkreśla, że w przypadku konfliktu między swobodą wypowiedzi a bezpieczeństwem nastolatków, firma wybierze to drugie. Wprowadzane rozwiązania mają chronić młodych ludzi, jednocześnie dając dorosłym większą swobodę. Plany OpenAI budzą jednak poważne obawy dotyczące prywatności. Konieczność przesyłania skanów dokumentów tożsamości do bazy wielkiej firmy to scenariusz, który niepokoi ekspertów od cyberbezpieczeństwa. Z kolei model predykcji wieku, choć mniej inwazyjny, rodzi pytania o jego skuteczność i potencjalne błędy.
Powiązane publikacje

Twoja prywatność w sieci stała się towarem. Zobacz, jak rośnie potęga rynku, który ma ją chronić przed hakerami i korporacjami
23
Google udostępnia eksperymentalną aplikację desktop search dla Windows z integracją Lens i AI Mode w ramach programu Labs
14
The Alliance for Open Media zapowiedziało wprowadzenie ulepszonego kodeka audio i wideo AV2 jeszcze w tym roku
41
Google udostępnia VaultGemma 1B, czyli pierwszy model językowy z pełną ochroną prywatności wykorzystującą differential privacy
10