ChatGPT wykluczony z Włoch. Za co? Narusza RODO, czyli prawo ochrony danych osobowych
W ostatnich miesiącach rozpoczęła się intensywna dyskusja nad regulacjami związanymi z działalnością sztucznej inteligencji, głównie pod postacią tzw. modeli językowych AI. Bez wątpienia współczesne prawo nie jest gotowe na nowe rozwiązania w tej dziedzinie, co wiąże się z kontrowersjami społecznymi. Jak się jednak okazuje, do pewnego stopnia obecne instrumenty kontroli mogą być już teraz skutecznie stosowane w Europie.
Włoski urząd do spraw ochrony danych osobowych na podstawie przepisów RODO nakazał OpenAI przestać przetwarzać dane osobowe użytkowników ze skutkiem natychmiastowym. Amerykańskie przedsiębiorstwo ma 20 dni na odpowiedź na zarzuty (za które grozi też kara finansowa).
OpenAI zaprezentowało następcę ChatGPT. Model GPT-4 ma znacznie większe możliwości, w tym multimedialne. Rozumie nawet memy
Wielokrotnie na łamach PurePC poruszaliśmy problem zasobów, na których uczy się sztuczna inteligencja - na przykład w zakresie praw autorskich dzieł artystycznych. Tym razem swoje wątpliwości co do legalności działania modelu OpenAI podniósł włoski urząd ochrony danych osobowych. ChatGPT (szczególnie w wersji 4.0) zdaje się posiadać dużą wiedzę na temat poszczególnych osób, a jednocześnie nie znamy dokładnie jego baz danych do nauki (a tym samym źródeł wiedzy). Ponadto sztuczna inteligencja często prezentuje spektakularne wymysły biograficzne, co kłóci się z unijnym prawem do prostowania fałszywych informacji. Powyższe zastrzeżenia korespondują z potwierdzeniem dotyczącym wycieku niektórych rozmów użytkowników, w wyniku czego mogły zostać ujawnione niektóre prywatne dane - a prawo unijne wymaga notyfikacji takich zdarzeń. Regulator zwrócił także uwagę na brak zabezpieczeń przed korzystaniem z usługi osób poniżej 13 roku życia.
ChatGPT - narzędzie OpenAI nie dla Chińczyków. Państwo Środka oficjalnie zakazuje jego wykorzystywania przez tamtejsze firmy
Jakie mogą być dalekosiężne konsekwencje naruszeń? Istnieje scenariusz, w którym uznaje się zgromadzone przez model dane za bezprawne działanie, w wyniku czego sztuczna inteligencja będzie musiała rozpocząć proces nauki od nowa. Niewątpliwie mamy do czynienia z wielkim zbiorem danych, który - z perspektywy RODO - powinien być zarządzany w sposób uczciwy i transparentny. Być może europejskie regulacje będą wymagać poprawek w związku z pojawianiem się modeli językowych sztucznej inteligencji. W chwili obecnej regulatorzy będą zapewne zbierać informacje i katalogować przypadki nadużyć.
Powiązane publikacje

Tajwan ogranicza eksport technologii TSMC. Nowe regulacje mają chronić najważniejsze procesy przed zagraniczną konkurencją
29
Wielka Brytania planuje zakazać aplikacji AI tworzących deepfake dzieci. Ofcom i rząd UK podejmują stosowne działania
40
IBM zainwestuje 150 mld USD w USA, a konkretniej w rozwój AI, komputerów kwantowych, a także produkcji lokalnej
14
Prawnicy MyPillow użyli AI i wpadli w pułapkę fikcyjnych spraw. Grożą im naprawdę poważne konsekwencje
76