Badanie Future of Life. Większość Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa
Giganci technologiczni rozpędzają się w wyścigu do stworzenia sztucznej inteligencji przewyższającej ludzi. OpenAI, Anthropic, xAI Elona Muska, wszyscy otwarcie mówią o "ściganiu się" do AGI i dalej. Tymczasem najnowsze, reprezentatywne badania opinii publicznej rysują obraz zupełnie innej rzeczywistości. Amerykańskie społeczeństwo nie tylko nie jest entuzjastycznie nastawione do tej wizji, wprost domaga się radykalnego zahamowania.
Tylko 5 proc. Amerykanów popiera szybki, nieregulowany rozwój superAI. To drastyczny kontrast wobec filozofii działania OpenAI, Anthropic czy xAI, które otwarcie deklarują "wyścig" do systemów przewyższających ludzi.
Raport JetBrains 2025. AI oszczędza deweloperom osiem godzin tygodniowo, ale rośnie sceptycyzm wobec jakości kodu
Future of Life Institute opublikowało właśnie wyniki ogólnonarodowego sondażu przeprowadzonego pod koniec września 2025 roku na reprezentatywnej próbie 2000 dorosłych Amerykanów. Rezultaty są jednoznaczne: 64 proc. respondentów uważa, że rozwój superAI (superinteligencji) powinien zostać wstrzymany do momentu, gdy naukowcy potwierdzą, że technologia jest bezpieczna i kontrolowalna, albo nie powinien być w ogóle rozwijany. To nie margines błędu, lecz zdecydowana większość społeczeństwa.
Google Veo 3.1 z rozdzielczością 1080p i 8-sekundowymi klipami konkuruje z OpenAI Sora 2. Sprawdź, co faktycznie potrafi
Jeszcze bardziej spektakularny jest inny wynik. Zaledwie 5 proc. badanych popiera obecny model działania branży, czyli szybki, nieregulowany rozwój zaawansowanych systemów AI. Jak to wygląda w praktyce? Wyobraźmy sobie, że jedziesz samochodem bez hamulców. Możesz gnać ile tylko chcesz, ale nie masz możliwości zatrzymania się, gdy pojawi się zagrożenie. Tak właśnie wygląda dzisiejszy wyścig korporacji technologicznych. Pełna prędkość naprzód, bez żadnych skutecznych mechanizmów bezpieczeństwa.
Nowa polityka OpenAI. ChatGPT będzie mógł generować treści erotyczne po implementacji systemu weryfikacji wieku
Przepaść między wizją branży a oczekiwaniami społeczeństwa rozciąga się na wszystkich frontach. Całe 73 proc. Amerykanów domaga się wprowadzenia "powolnego, ściśle regulowanego" rozwoju AI, porównywalnego do tego, jak kontrolowane są nowe leki przed dopuszczeniem na rynek. Niemal dwie trzecie badanych (64 proc.) chciałoby zobaczyć natychmiastową pauzę w pracach nad zaawansowaną AI. Dla porównania, tylko 12 proc. sprzeciwia się silnym regulacjom. Kolejne badania, tym razem przeprowadzone przez Quinnipiac University w kwietniu 2025 roku i YouGov w marca, potwierdzają ten trend. Według Quinnipiac aż 69 proc. Amerykanów uważa, że rząd robi zbyt mało w kwestii regulacji AI.
To koniec Photoshopa? Google wypuszcza Nano Banana na wszystkie swoje platformy. AI zmieni sposób edycji zdjęć
Czego konkretnie obawiają się obywatele? Ranking obaw jest niepokojący. Na czele listy znajdują się zagłada ludzkości, zastąpienie ludzi przez maszyny, a także koncentracja władzy w rękach technologicznych korporacji. W badaniu YouGov aż 74 proc. respondentów wyraziło zaniepokojenie możliwością skoncentrowania władzy w BigTechach, a 37 proc. obawia się, że AI może doprowadzić do końca ludzkiej rasy. To już nie jest science fiction, a zupełnie powszechne przekonanie w społeczeństwie.
To koniec świata IT, jaki znamy. Sztuczna inteligencja nie zwolni Cię z pracy, ale zrobi to pracownik, który potrafi z niej korzystać
Fascynujące są też dane dotyczące zaufania. Gdy spytano Amerykanów, kto powinien decydować o kierunku rozwoju zaawansowanej AI, na szczycie listy znalazły się międzynarodowe organizacje naukowe i agencje rządowe, a nie korporacje technologiczne. Co więcej, badania Pew Research z kwietnia 2025 roku pokazują, że 59 proc. dorosłych Amerykanów ma niewielkie lub żadne zaufanie do firm technologicznych w kwestii odpowiedzialnego rozwoju AI. To szczególnie znaczące, biorąc pod uwagę, że to właśnie OpenAI, Google, Meta, Anthropic czy xAI dyktują dzisiaj tempo i kierunek rewolucji AI.
Program STEP dla Polski to aż 600 mln zł na technologie cyfrowe, AI i biotechnologię z Funduszy Europejskich
A jak to wygląda z perspektywy Polski i Europy? Jak wielokrotnie opisywaliśmy, Unia Europejska wybrała zupełnie inną drogę niż Stany Zjednoczone. AI Act, kompleksowe rozporządzenie regulujące systemu AI, obowiązuje w Polsce od sierpnia 2024 roku, a od lutego 2025 zaczęły działać pierwsze zakazy dotyczące szczególnie niebezpiecznych systemów. Europejski model zakłada rozbudowaną kontrolę, kategoryzację ryzyka i surowe kary za naruszenia (do 35 mln euro lub 7 proc. globalnych obrotów). Podczas gdy amerykańskie firmy lobbują przeciwko regulacjom i otwarcie mówią o "wyścigu", Europa próbuje nałożyć hamulce. Polska, wdrażając AI Act, staje po stronie ostrożności, ale czy to wystarczy, gdy technologiczne supermocarstwo ignoruje sygnały własnego społeczeństwa?
Polski model językowy PLLuM trafia do pierwszego samorządu. Częstochowa testuje sztuczną inteligencję w urzędzie
Problem w tym, że liderzy branży wciąż operują w logice wyścigu zbrojeń. Sam Altman z OpenAI wielokrotnie mówił o dążeniu do AGI "w ciągu kilku lat". Dario Amodei z Anthropic również nie ukrywa ambicji stworzenia systemów przewyższających człowieka. Elon Musk publicznie deklaruje, że xAI jest w wyścigu o superinteligencję. Tymczasem połowa respondentów w badaniu Future of Life Institute oczekuje, że superinteligencja pojawi się w ciągu najbliższych pięciu lat i dwie trzecie z nich jest przekonanych, że bez odpowiednich zabezpieczeń spowoduje ona "znaczące szkody dla ludzkości".
Powiązane publikacje

Meta Quest 3 i Quest 3S wykorzystają Windowsa 11 w innym wymiarze. Wirtualne monitory jak w Apple Vision Pro
17
Affinity Photo, Designer i Publisher zniknęły z rynku. Są dobre wieści: "Photoshop" za darmo dla macOS i Windows
16
WhatsApp z prostszym szyfrowaniem kopii zapasowej czatów. Już wkrótce zabepieczymy ją kluczem dostępu, zamiast długiego hasła
1
Przeglądarka Samsung Internet dla Windows 10 i 11. Pecetowa odsłona już dostępna dla wybranych
17







![Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [1]](/image/news/2025/10/23_badanie_future_of_life_az_64_proc_amerykanow_chce_wstrzymania_rozwoju_superai_do_otrzymania_dowodow_bezpieczenstwa_2.jpg)
![Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [2]](/image/news/2025/10/23_badanie_future_of_life_az_64_proc_amerykanow_chce_wstrzymania_rozwoju_superai_do_otrzymania_dowodow_bezpieczenstwa_8.jpg)
![Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [3]](/image/news/2025/10/23_badanie_future_of_life_az_64_proc_amerykanow_chce_wstrzymania_rozwoju_superai_do_otrzymania_dowodow_bezpieczenstwa_3.jpg)
![Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [4]](/image/news/2025/10/23_badanie_future_of_life_az_64_proc_amerykanow_chce_wstrzymania_rozwoju_superai_do_otrzymania_dowodow_bezpieczenstwa_6.jpg)
![Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [5]](/image/news/2025/10/23_badanie_future_of_life_az_64_proc_amerykanow_chce_wstrzymania_rozwoju_superai_do_otrzymania_dowodow_bezpieczenstwa_5.jpg)
![Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [6]](/image/news/2025/10/23_badanie_future_of_life_az_64_proc_amerykanow_chce_wstrzymania_rozwoju_superai_do_otrzymania_dowodow_bezpieczenstwa_7.jpg)
![Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [7]](/image/news/2025/10/23_badanie_future_of_life_az_64_proc_amerykanow_chce_wstrzymania_rozwoju_superai_do_otrzymania_dowodow_bezpieczenstwa_9.jpg)





