Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Gdyby to był człowiek, usłyszałby zarzuty. Floryda uderza w OpenAI po rozmowach sprawcy z ChatGPT

Maciej Lewczuk | 22-04-2026 14:00 |

Gdyby to był człowiek, usłyszałby zarzuty. Floryda uderza w OpenAI po rozmowach sprawcy z ChatGPTWokół generatywnej sztucznej inteligencji od miesięcy krąży to samo pytanie, a mianowicie gdzie kończy się narzędzie, a zaczyna odpowiedzialność jego twórcy. Teraz ten spór schodzi z konferencyjnych scen i sal sądowych prosto do śledztwa karnego. Floryda sprawdza, czy rozmowy sprawcy ataku na Florida State University z ChatGPT były tylko cyfrowym echem internetu, czy już realnym elementem przygotowań do popełnienia zbrodni.

To może być moment, w którym branża związana z AI straci wygodną wymówkę, że chatbot jest tylko odbiciem tego, co już jest w sieci.

Gdyby to był człowiek, usłyszałby zarzuty. Floryda uderza w OpenAI po rozmowach sprawcy z ChatGPT [1]

Anna's Archive z wyrokiem na 322,2 mln USD. Spotify i wielkie wytwórnie wygrały, ale problem nie zniknął

Floryda nie bawi się w półśrodki. Prokuratura stanowa wszczęła karne postępowanie wobec OpenAI po wstępnej analizie logów, z których ma wynikać, że sprawca strzelaniny na Florida State University pytał ChatGPT między innymi o broń, amunicję i moment, w którym w kampusowym centrum będzie najwięcej ludzi. OpenAI odpowiada chłodno, że chatbot nie namawiał do przemocy, a jedynie podawał informacje dostępne publicznie. Problem w tym, że własne zasady firmy wprost zakazują użycia usług do przemocy i pozyskiwania wiedzy o broni, więc śledztwo uderza nie tylko w sam model, ale też w to, czy mechanizmy wykrywania zagrożeń zadziałały wtedy, gdy powinny były zadziałać.

Gdyby to był człowiek, usłyszałby zarzuty. Floryda uderza w OpenAI po rozmowach sprawcy z ChatGPT [2]

Inwestorzy żądają od hyperskalerów danych o wodzie i prądzie. AI otwiera nowy front sporów o centra danych

Dla zwykłego użytkownika ta historia ma bardzo praktyczny wymiar. Jeżeli państwo zacznie traktować podobne przypadki jak test odpowiedzialności producenta, platformy AI odpowiedzą ostrzej, czyli mocniejszym filtrowaniem rozmów, szerszym nadzorem nad sygnałami zagrożenia i większą gotowością do kontaktu z organami ścigania. Czytelnicy PurePC widzieli już ten kierunek w tekstach o pamięci ChatGPT, sporze o prywatność rozmów i testach weryfikacji wieku. Teraz te wątki składają się w jedną całość. Bezpieczeństwo będzie sprzedawane kosztem anonimowości i swobody korzystania z modelu.

Pentagon chciał złamać Anthropic jednym ruchem wpisując firmę na czarną listę. Sąd właśnie wybił mu ten argument z ręki

Na tle konkurencji OpenAI wcale nie wygląda dziś jak wyjątek, tylko jak pierwszy duży cel. NPR przypomina, że podobne zarzuty dotknęły też Google Gemini, więc nie chodzi już o pojedynczą firmę, ale o cały rynek. Długofalowy skutek może być prosty. Mniej wiary w samoregulację, więcej audytów, więcej obowiązków raportowania i bardziej zachowawcze modele. Z perspektywy użytkownika oznacza to narzędzia mniej skłonne do ryzyka. Z perspektywy branży oznacza to koniec wygodnej opowieści, że odpowiedzialność zawsze leży wyłącznie po stronie człowieka siedzącego przed klawiaturą.

Źródło: NPR, NBC News, Office of the Attorney General of Florida
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 9

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.