Gdyby to był człowiek, usłyszałby zarzuty. Floryda uderza w OpenAI po rozmowach sprawcy z ChatGPT
Wokół generatywnej sztucznej inteligencji od miesięcy krąży to samo pytanie, a mianowicie gdzie kończy się narzędzie, a zaczyna odpowiedzialność jego twórcy. Teraz ten spór schodzi z konferencyjnych scen i sal sądowych prosto do śledztwa karnego. Floryda sprawdza, czy rozmowy sprawcy ataku na Florida State University z ChatGPT były tylko cyfrowym echem internetu, czy już realnym elementem przygotowań do popełnienia zbrodni.
To może być moment, w którym branża związana z AI straci wygodną wymówkę, że chatbot jest tylko odbiciem tego, co już jest w sieci.
Anna's Archive z wyrokiem na 322,2 mln USD. Spotify i wielkie wytwórnie wygrały, ale problem nie zniknął
Floryda nie bawi się w półśrodki. Prokuratura stanowa wszczęła karne postępowanie wobec OpenAI po wstępnej analizie logów, z których ma wynikać, że sprawca strzelaniny na Florida State University pytał ChatGPT między innymi o broń, amunicję i moment, w którym w kampusowym centrum będzie najwięcej ludzi. OpenAI odpowiada chłodno, że chatbot nie namawiał do przemocy, a jedynie podawał informacje dostępne publicznie. Problem w tym, że własne zasady firmy wprost zakazują użycia usług do przemocy i pozyskiwania wiedzy o broni, więc śledztwo uderza nie tylko w sam model, ale też w to, czy mechanizmy wykrywania zagrożeń zadziałały wtedy, gdy powinny były zadziałać.
Inwestorzy żądają od hyperskalerów danych o wodzie i prądzie. AI otwiera nowy front sporów o centra danych
Dla zwykłego użytkownika ta historia ma bardzo praktyczny wymiar. Jeżeli państwo zacznie traktować podobne przypadki jak test odpowiedzialności producenta, platformy AI odpowiedzą ostrzej, czyli mocniejszym filtrowaniem rozmów, szerszym nadzorem nad sygnałami zagrożenia i większą gotowością do kontaktu z organami ścigania. Czytelnicy PurePC widzieli już ten kierunek w tekstach o pamięci ChatGPT, sporze o prywatność rozmów i testach weryfikacji wieku. Teraz te wątki składają się w jedną całość. Bezpieczeństwo będzie sprzedawane kosztem anonimowości i swobody korzystania z modelu.
Pentagon chciał złamać Anthropic jednym ruchem wpisując firmę na czarną listę. Sąd właśnie wybił mu ten argument z ręki
Na tle konkurencji OpenAI wcale nie wygląda dziś jak wyjątek, tylko jak pierwszy duży cel. NPR przypomina, że podobne zarzuty dotknęły też Google Gemini, więc nie chodzi już o pojedynczą firmę, ale o cały rynek. Długofalowy skutek może być prosty. Mniej wiary w samoregulację, więcej audytów, więcej obowiązków raportowania i bardziej zachowawcze modele. Z perspektywy użytkownika oznacza to narzędzia mniej skłonne do ryzyka. Z perspektywy branży oznacza to koniec wygodnej opowieści, że odpowiedzialność zawsze leży wyłącznie po stronie człowieka siedzącego przed klawiaturą.
Powiązane publikacje

NASK rozstrzygnął przetarg na 100 tys. zestawów do nauczania zdalnego. Dostawy ruszą na przełomie maja i czerwca
12
SK hynix szykuje rekordowe premie za boom na HBM. Nawet 700 mln wonów dla każdego pracownika
15
Tim Cook oficjalnie odchodzi ze stanowiska CEO Apple. Jego miejsce zajmie John Ternus, wieloletni inżynier sprzętowy
43
AI miała przyspieszyć wszystko, a utknęła na placu budowy. USA mają problem większy, niż chciały przyznać
46







![Gdyby to był człowiek, usłyszałby zarzuty. Floryda uderza w OpenAI po rozmowach sprawcy z ChatGPT [1]](/image/news/2026/04/22_gdyby_to_byl_czlowiek_uslyszalby_zarzuty_floryda_uderza_w_openai_po_rozmowach_sprawcy_z_chatgpt_1.jpg)
![Gdyby to był człowiek, usłyszałby zarzuty. Floryda uderza w OpenAI po rozmowach sprawcy z ChatGPT [2]](/image/news/2026/04/22_gdyby_to_byl_czlowiek_uslyszalby_zarzuty_floryda_uderza_w_openai_po_rozmowach_sprawcy_z_chatgpt_0.jpg)





