Regulatorzy w USA chcą informacji od OpenAI, Meta i Character.AI o zabezpieczeniach chatbotów dla młodych użytkowników
AI coraz śmielej wkracza w nasze życie, a chatboty potrafią już nie tylko odpowiadać na pytania, ale także imitować ludzkie emocje i budować relacje. Stają się cyfrowymi przyjaciółmi, zwłaszcza dla młodych osób. Taka zażyłość budzi jednak obawy o bezpieczeństwo i prywatność. Rozwój tej technologii przyciągnął uwagę amerykańskich regulatorów, którzy postanowili bliżej przyjrzeć się działaniom największych firm z branży i potencjalnym zagrożeniom, jakie mogą stwarzać ich produkty.
Dochodzenie ma na celu zrozumienie, jakie kroki firmy podjęły, aby ocenić bezpieczeństwo swoich chatbotów działających jako towarzysze i ograniczyć ich potencjalnie negatywne skutki dla dzieci i młodzieży.
Watykan ostrzega przed AI. Stworzono jednak Magisterium AI - katolicki chatbot wykorzystający dokumenty Kościoła
Federal Trade Commission oficjalnie rozpoczęło szeroko zakrojone dochodzenie w sprawie firm oferujących chatboty AI działające jako towarzysze. Regulatorzy wymagają od siedmiu największych platform szczegółowych informacji o tym, jak chronią młodych użytkowników przed potencjalnymi szkodami psychicznymi i fizycznymi. Pod lupą FTC znalazły się Alphabet, Character Technologies, Instagram, Meta, OpenAI, Snap oraz xAI. Komisja wykorzystała swoje uprawnienia z sekcji 6(b), które pozwalają na prowadzenie szeroko zakrojonych badań bez konkretnych celów egzekwowania prawa. Dochodzenie koncentruje się na tym, jak firmy monetyzują zaangażowanie użytkowników, przetwarzają dane osobowe i monitorują negatywny wpływ swoich produktów na nieletnich.
Terapeuta AI może ci zaszkodzić. Stanford ujawnia niepokojące fakty o chatbotach. Mogą popełniać o 1/3 więcej błędów niż ludzie
Śledztwo nastąpiło po serii głośnych pozwów sądowych przeciwko producentom chatbotów AI. Najbardziej nagłośnioną sprawą było samobójstwo 14-letniego Sewella Setzera III z Florydy, który rozwinął emocjonalną więź z chatbotem Character.AI wzorowanym na postaci Daenerys Targaryen z serialu Game of Thrones. Rodzina nastolatka oskarża firmę o stworzenie "niebezpiecznej i niesprawdzonej" technologii. Podobne zarzuty postawiono OpenAI po śmierci 16-letniego Adama Raine'a, który przed samobójstwem prowadził długie rozmowy z ChatGPT na temat planów zakończenia życia.
xAI zapowiada Baby Grok, dziecięcą wersję chatbota AI z mechanizmami kontroli rodzicielskiej i filtrami bezpieczeństwa
Firmy AI próbują reagować na rosnące obawy bezpieczeństwa. xAI Elona Muska zapowiedziało Baby Grok, czyli specjalną wersję chatbota przeznaczoną dla dzieci z mechanizmami kontroli rodzicielskiej. Meta ograniczyła dostęp nastolatków do swoich botów AI, a Character.AI wprowadziło nowe zabezpieczenia dla użytkowników poniżej 18 roku życia. Jednocześnie Kalifornia może stać się pierwszym stanem regulującym chatboty towarzyszące dla nieletnich. Ustawa SB 243 przeszła już przez obydwie izby parlamentu stanowego i czeka na podpis gubernatora Gavina Newsoma. Projekt wymaga od platform ostrzegania co trzy godziny młodych użytkowników, że rozmawiają z AI, a nie z człowiekiem. Firmy będą także zobowiązane do corocznego składania raportów, a także poniosą odpowiedzialność prawną za każdorazowe naruszenia standardów bezpieczeństwa.
Powiązane publikacje

UE zmusi WhatsApp i Signal do skanowania twoich zdjęć przed wysłaniem. Chat Control 2.0 oznacza masową inwigilację
30
Meta i TikTok wygrywają z Komisją Europejską. Sąd UE stwierdził błędy proceduralne w akcie dotyczącym opłat z Digital Services Act
11
ManpowerGroup: branża IT w Polsce odnotowuje prognozę zatrudnienia +12%, ale trend spadkowy trwa trzeci kwartał z rzędu
14
Gigantyczna ugoda Anthropic odrzucona przez sędziego. 1,5 mld USD może nie wystarczyć autorom książek wykorzystanych przez AI
18