Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Badanie Future of Life. Większość Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa

Maciej Lewczuk | 23-10-2025 13:00 |

Badanie Future of Life.  Większość Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwaGiganci technologiczni rozpędzają się w wyścigu do stworzenia sztucznej inteligencji przewyższającej ludzi. OpenAI, Anthropic, xAI Elona Muska, wszyscy otwarcie mówią o "ściganiu się" do AGI i dalej. Tymczasem najnowsze, reprezentatywne badania opinii publicznej rysują obraz zupełnie innej rzeczywistości. Amerykańskie społeczeństwo nie tylko nie jest entuzjastycznie nastawione do tej wizji, wprost domaga się radykalnego zahamowania.

Tylko 5 proc. Amerykanów popiera szybki, nieregulowany rozwój superAI. To drastyczny kontrast wobec filozofii działania OpenAI, Anthropic czy xAI, które otwarcie deklarują "wyścig" do systemów przewyższających ludzi.

Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [1]

Raport JetBrains 2025. AI oszczędza deweloperom osiem godzin tygodniowo, ale rośnie sceptycyzm wobec jakości kodu

Future of Life Institute opublikowało właśnie wyniki ogólnonarodowego sondażu przeprowadzonego pod koniec września 2025 roku na reprezentatywnej próbie 2000 dorosłych Amerykanów. Rezultaty są jednoznaczne: 64 proc. respondentów uważa, że rozwój superAI (superinteligencji) powinien zostać wstrzymany do momentu, gdy naukowcy potwierdzą, że technologia jest bezpieczna i kontrolowalna, albo nie powinien być w ogóle rozwijany. To nie margines błędu, lecz zdecydowana większość społeczeństwa. 

Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [2]

Google Veo 3.1 z rozdzielczością 1080p i 8-sekundowymi klipami konkuruje z OpenAI Sora 2. Sprawdź, co faktycznie potrafi

Jeszcze bardziej spektakularny jest inny wynik. Zaledwie 5 proc. badanych popiera obecny model działania branży, czyli szybki, nieregulowany rozwój zaawansowanych systemów AI. Jak to wygląda w praktyce? Wyobraźmy sobie, że jedziesz samochodem bez hamulców. Możesz gnać ile tylko chcesz, ale nie masz możliwości zatrzymania się, gdy pojawi się zagrożenie. Tak właśnie wygląda dzisiejszy wyścig korporacji technologicznych. Pełna prędkość naprzód, bez żadnych skutecznych mechanizmów bezpieczeństwa.

Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [3]

Nowa polityka OpenAI. ChatGPT będzie mógł generować treści erotyczne po implementacji systemu weryfikacji wieku

Przepaść między wizją branży a oczekiwaniami społeczeństwa rozciąga się na wszystkich frontach. Całe 73 proc. Amerykanów domaga się wprowadzenia "powolnego, ściśle regulowanego" rozwoju AI, porównywalnego do tego, jak kontrolowane są nowe leki przed dopuszczeniem na rynek. Niemal dwie trzecie badanych (64 proc.) chciałoby zobaczyć natychmiastową pauzę w pracach nad zaawansowaną AI. Dla porównania, tylko 12 proc. sprzeciwia się silnym regulacjom. Kolejne badania, tym razem przeprowadzone przez Quinnipiac University w kwietniu 2025 roku i YouGov w marca, potwierdzają ten trend. Według Quinnipiac aż 69 proc. Amerykanów uważa, że rząd robi zbyt mało w kwestii regulacji AI.

Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [4]

To koniec Photoshopa? Google wypuszcza Nano Banana na wszystkie swoje platformy. AI zmieni sposób edycji zdjęć

Czego konkretnie obawiają się obywatele? Ranking obaw jest niepokojący. Na czele listy znajdują się zagłada ludzkości, zastąpienie ludzi przez maszyny, a także koncentracja władzy w rękach technologicznych korporacji. W badaniu YouGov aż 74 proc. respondentów wyraziło zaniepokojenie możliwością skoncentrowania władzy w BigTechach, a 37 proc. obawia się, że AI może doprowadzić do końca ludzkiej rasy. To już nie jest science fiction, a zupełnie powszechne przekonanie w społeczeństwie.

Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [5]

To koniec świata IT, jaki znamy. Sztuczna inteligencja nie zwolni Cię z pracy, ale zrobi to pracownik, który potrafi z niej korzystać

Fascynujące są też dane dotyczące zaufania. Gdy spytano Amerykanów, kto powinien decydować o kierunku rozwoju zaawansowanej AI, na szczycie listy znalazły się międzynarodowe organizacje naukowe i agencje rządowe, a nie korporacje technologiczne. Co więcej, badania Pew Research z kwietnia 2025 roku pokazują, że 59 proc. dorosłych Amerykanów ma niewielkie lub żadne zaufanie do firm technologicznych w kwestii odpowiedzialnego rozwoju AI. To szczególnie znaczące, biorąc pod uwagę, że to właśnie OpenAI, Google, Meta, Anthropic czy xAI dyktują dzisiaj tempo i kierunek rewolucji AI.

Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [6]

Program STEP dla Polski to aż 600 mln zł na technologie cyfrowe, AI i biotechnologię z Funduszy Europejskich

A jak to wygląda z perspektywy Polski i Europy? Jak wielokrotnie opisywaliśmy, Unia Europejska wybrała zupełnie inną drogę niż Stany Zjednoczone. AI Act, kompleksowe rozporządzenie regulujące systemu AI, obowiązuje w Polsce od sierpnia 2024 roku, a od lutego 2025 zaczęły działać pierwsze zakazy dotyczące szczególnie niebezpiecznych systemów. Europejski model zakłada rozbudowaną kontrolę, kategoryzację ryzyka i surowe kary za naruszenia (do 35 mln euro lub 7 proc. globalnych obrotów). Podczas gdy amerykańskie firmy lobbują przeciwko regulacjom i otwarcie mówią o "wyścigu", Europa próbuje nałożyć hamulce. Polska, wdrażając AI Act, staje po stronie ostrożności, ale czy to wystarczy, gdy technologiczne supermocarstwo ignoruje sygnały własnego społeczeństwa?

Badanie Future of Life. Aż 64 proc. Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa [7]

Polski model językowy PLLuM trafia do pierwszego samorządu. Częstochowa testuje sztuczną inteligencję w urzędzie

Problem w tym, że liderzy branży wciąż operują w logice wyścigu zbrojeń. Sam Altman z OpenAI wielokrotnie mówił o dążeniu do AGI "w ciągu kilku lat". Dario Amodei z Anthropic również nie ukrywa ambicji stworzenia systemów przewyższających człowieka. Elon Musk publicznie deklaruje, że xAI jest w wyścigu o superinteligencję. Tymczasem połowa respondentów w badaniu Future of Life Institute oczekuje, że superinteligencja pojawi się w ciągu najbliższych pięciu lat i dwie trzecie z nich jest przekonanych, że bez odpowiednich zabezpieczeń spowoduje ona "znaczące szkody dla ludzkości".

Źródło: Future of Life Institute, Pew Research Center, Quinnipiac University Poll, YouGov
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 20

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.