Kalifornia przyjęła ustawę SB 53. Firmy AI mają publikować protokoły bezpieczeństwa i raporty incydentów krytycznych
Rządy na całym świecie próbują znaleźć równowagę między wspieraniem innowacji a zapewnieniem bezpieczeństwa obywatelom. Unia Europejska wybrała drogę ścisłych przepisów w ramach AI Act, ale inne regiony szukają własnych rozwiązań. W centrum tych działań znajduje się Kalifornia, światowe zagłębie technologiczne. Wprowadzone tam właśnie prawo może wyznaczyć standardy dla reszty Stanów Zjednoczonych i wpłynąć na globalny rozwój AI.
Kalifornijska ustawa SB 53 ma na celu wspieranie innowacji w dziedzinie sztucznej inteligencji, jednocześnie budząc obawy ekspertów o brak realnych zabezpieczeń przed potencjalnymi zagrożeniami.
Rada Ministrów przyjęła nowelizację ustawy wdrażającej DSA. UKE i KRRiT otrzymają nowe uprawnienia do blokowania treści
Gubernator Kalifornii Gavin Newsom podpisał ustawę Senate Bill 53, znaną jako Transparency in Frontier Artificial Intelligence Act. To pierwszy w Stanach Zjednoczonych akt prawny nakładający na firmy zajmujące się sztuczną inteligencją obowiązek publikacji protokołów bezpieczeństwa i raportowania incydentów krytycznych. Ustawa dotyczy przedsiębiorstw z rocznymi przychodami przekraczającymi 500 mln dolarów, które rozwijają najbardziej zaawansowane modele AI. W praktyce oznacza to, że pod nowe regulacje podpadają giganty technologiczni jak OpenAI, Meta, Google DeepMind czy Anthropic. Nowe prawo nakazuje firmom umieszczać na swoich stronach plany bezpieczeństwa AI, w których wyjaśnią, jak chcą zapobiegać bardzo poważnym zagrożeniom. Firmy muszą również raportować do California Office of Emergency Services wszelkie krytyczne incydenty bezpieczeństwa w ciągu 15 dni od ich wykrycia. Ustawa definiuje ryzyko katastroficzne jako zagrożenie mogące doprowadzić do śmierci ponad 50 osób lub strat materialnych przekraczających miliard dolarów. SB 53 wzmacnia też ochronę sygnalistów, czyli pracowników ostrzegających przed potencjalnymi zagrożeniami związanymi z technologiami AI.
Niemcy wspierają wykluczenie Big Tech z europejskiej platformy udostępniania danych finansowych w ramach FiDA
Reakcje branży technologicznej na nowe regulacje są mieszane. Anthropic poparł ustawę, podczas gdy Meta i OpenAI prowadziły intensywne działania lobbingowe przeciwko jej przyjęciu. OpenAI opublikował nawet otwarty list do gubernatora Newsoma, zniechęcając go do podpisania SB 53. Firmy technologiczne argumentują, że regulacje na poziomie stanowym mogą stworzyć "precedens regulacyjny" hamujący innowacje. Liderzy OpenAI i Meta uruchomili w ostatnich tygodniach komitety polityczne wspierające kandydatów i projekty ustaw przyjazne dla AI, inwestując setki milionów dolarów w kampanie przeciwko restrykcyjnym regulacjom. SB 53 jest drugim podejściem senatora Scotta Wienera do regulacji sztucznej inteligencji. Rok temu Newsom zawetował jego bardziej restrykcyjną ustawę SB 1047, która wymagałaby testów bezpieczeństwa i "przełączników awaryjnych" wbudowanych w systemy AI. Nowa ustawa koncentruje się na transparentności zamiast na obowiązkowych testach, co spotkało się z akceptacją części branży. Przepisy nakładają kary cywilne do miliona dolarów za każde naruszenie obowiązków raportowania. Kalifornia, będąca domem dla 32 z 50 największych firm AI na świecie i otrzymująca ponad połowę globalnych inwestycji venture capital w AI, może ustanowić precedens dla innych stanów i krajów rozważających podobne regulacje.
Powiązane publikacje

Sam Altman odwiedził TSMC na Tajwanie w ramach planów produkcji własnych chipów AI w procesie 3 nm
15
Amazon, Apple i Microsoft muszą wyjaśnić zatrudnianie 50 tys. specjalistów H-1B po zwolnieniu dziesiątek tysięcy amerykanów
47
Rada Ministrów przyjęła nowelizację ustawy wdrażającej DSA. UKE i KRRiT otrzymają nowe uprawnienia do blokowania treści
123
NVIDIA inwestuje 100 miliardów dolarów w OpenAI na budowę centrów danych o mocy 10 gigawatów z układami Vera Rubin
39