Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

bezpieczeństwo AI

Hakerzy nie włamują się już do AI, oni go po prostu przekonują. Oto jak działa Sugar-Coated Poison

Hakerzy nie włamują się już do AI, oni go po prostu przekonują. Oto jak działa Sugar-Coated Poison

Rywalizacja między możliwościami modeli AI a ich bezpieczeństwem nigdy nie była tak wyraźna. F5 Labs co miesiąc publikuje ranking CASI, oceniający odporność czołowych modeli językowych na rzeczywiste ataki przy użyciu 10 000 nowych promptów. Marcowa edycja przynosi niepokojące przesunięcia i jedną nazwę, która dominuje w złym kontekście. Jednocześnie nowe techniki ataku pokazują, że era prymitywnych jailbreaków właśnie dobiega końca.

Plik konfiguracyjny w repozytorium jako broń. Check Point ujawnia, jak Claude Code można było uczynić narzędziem ataku

Plik konfiguracyjny w repozytorium jako broń. Check Point ujawnia, jak Claude Code można było uczynić narzędziem ataku

Narzędzia AI dla programistów zdobywają rynek w tempie, które nie pozostawia czasu na gruntowne audyty bezpieczeństwa. Anthropic Claude Code, terminalowy asystent kodowania, jest dziś jednym z najpopularniejszych narzędzi agentycznych w branży deweloperskiej. Firma chwali się, że jest najszybciej rosnącym startupem software w historii. Okazuje się jednak, że w trakcie tego dynamicznego wzrostu przez kilka miesięcy funkcjonowały trzy poważne luki bezpieczeństwa.

Pentagon żąda nieograniczonego dostępu do Claude'a. Anthropic pod groźbą wykluczenia z kontraktów rządowych

Pentagon żąda nieograniczonego dostępu do Claude'a. Anthropic pod groźbą wykluczenia z kontraktów rządowych

Relacja Anthropic z Pentagonem przez długi czas wyglądała jak modelowy przykład współpracy prywatnego sektora AI z armią. Był kontrakt za 200 mln dolarów, dostęp do tajnych sieci przez Palantir, deklaracje o "odpowiedzialnym AI". W ciągu kilku tygodni ta współpraca zamieniła się w otwarty konflikt, w którym sekretarz obrony Pete Hegseth postawił firmie twarde ultimatum z terminem odpowiedzi do koniec tygodnia. Czy Anthropic podpisze nową umowę?

Jensen Huang w podcaście Joe Rogana powiedział, że apokalipsa AI to science fiction, ale modele już uczą się samoobrony

Jensen Huang w podcaście Joe Rogana powiedział, że apokalipsa AI to science fiction, ale modele już uczą się samoobrony

Czy powinniśmy bać się apokalipsy wywołanej przez sztuczną inteligencję? Jensen Huang, CEO NVIDII, firmy, która de facto napędza rewolucję AI swoimi akceleratorami, ma na ten temat bardzo jednoznaczne zdanie. W najnowszym odcinku podcastu Joe Rogana wprost stwierdził, że scenariusz w stylu "Terminatora" jest "skrajnie mało prawdopodobny". Zabrzmiałoby to uspokajająco, gdyby nie fakt, że w tej samej rozmowie Huang przewidział coś równie zaskakującego.

Atak na Mixpanel. OpenAI informuje o wycieku danych profilowych użytkowników platformy deweloperskiej

Atak na Mixpanel. OpenAI informuje o wycieku danych profilowych użytkowników platformy deweloperskiej

Gdy myślimy o bezpieczeństwie firm technologicznych pokroju OpenAI, zakładamy, że ich własne systemy są nie do przebicia. Tymczasem rzeczywistość jest bardziej złożona. Nawet najbardziej zaawansowane firmy AI mogą stać się ofiarami cyberataków, choć często nie w sposób, jakiego byśmy się spodziewali. OpenAI poinformowało część użytkowników o incydencie bezpieczeństwa, który dotknął nie ich własnej infrastruktury, ale zewnętrznego partnera.

Badanie Future of Life. Większość Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa

Badanie Future of Life.  Większość Amerykanów chce wstrzymania rozwoju superAI do otrzymania dowodów bezpieczeństwa

Giganci technologiczni rozpędzają się w wyścigu do stworzenia sztucznej inteligencji przewyższającej ludzi. OpenAI, Anthropic, xAI Elona Muska, wszyscy otwarcie mówią o "ściganiu się" do AGI i dalej. Tymczasem najnowsze, reprezentatywne badania opinii publicznej rysują obraz zupełnie innej rzeczywistości. Amerykańskie społeczeństwo nie tylko nie jest entuzjastycznie nastawione do tej wizji, wprost domaga się radykalnego zahamowania.

Kalifornia przyjęła ustawę SB 53. Firmy AI mają publikować protokoły bezpieczeństwa i raporty incydentów krytycznych

Kalifornia przyjęła ustawę SB 53. Firmy AI mają publikować protokoły bezpieczeństwa i raporty incydentów krytycznych

Rządy na całym świecie próbują znaleźć równowagę między wspieraniem innowacji a zapewnieniem bezpieczeństwa obywatelom. Unia Europejska wybrała drogę ścisłych przepisów w ramach AI Act, ale inne regiony szukają własnych rozwiązań. W centrum tych działań znajduje się Kalifornia, światowe zagłębie technologiczne. Wprowadzone tam właśnie prawo może wyznaczyć standardy dla reszty Stanów Zjednoczonych i wpłynąć na globalny rozwój AI.

Kontrowersyjne zasady użytkowania Anthropic. Administracja USA krytykuje restrykcje AI w operacjach służb bezpieczeństwa

Kontrowersyjne zasady użytkowania Anthropic. Administracja USA krytykuje restrykcje AI w operacjach służb bezpieczeństwa

Wdrażanie zaawansowanych modeli AI w tak wrażliwych obszarach jak bezpieczeństwo narodowe i egzekwowanie prawa prowadzi do nieuniknionych napięć. Firmy technologiczne, tworzące te potężne narzędzia, coraz częściej stają przed dylematem, jak pogodzić komercyjny potencjał swoich produktów z etyczną odpowiedzialnością za ich użycie. Rosnące różnice zdań między twórcami a państwowymi agencjami zwiastują nową erę sporów regulacyjnych.

Tragedia zmusiła firmę OpenAI do działania. ChatGPT dostanie kontrolę rodzicielską po śmierci 16-latka

Tragedia zmusiła firmę OpenAI do działania. ChatGPT dostanie kontrolę rodzicielską po śmierci 16-latka

AI coraz śmielej wkracza w naszą codzienność, stając się narzędziem pracy, nauki i rozrywki dla milionów ludzi, w tym również dla młodzieży. Dynamiczny rozwój technologii rodzi jednak pytania o bezpieczeństwo, zwłaszcza w kontekście najmłodszych użytkowników. W odpowiedzi na rosnącą debatę publiczną i presję prawną, jeden z czołowych graczy na rynku AI zapowiada wprowadzenie nowych mechanizmów, które mają dać większą kontrolę nad interakcjami z chatbotem.

xAI zapowiada Baby Grok, dziecięcą wersję chatbota AI z mechanizmami kontroli rodzicielskiej i filtrami bezpieczeństwa

xAI zapowiada Baby Grok, dziecięcą wersję chatbota AI z mechanizmami kontroli rodzicielskiej i filtrami bezpieczeństwa

Sztuczna inteligencja coraz bardziej zmienia nasze codzienne życie. Nowe technologie pojawiają się w domach, szkołach i biurach, oferując nowe możliwości. Firmy technologiczne rywalizują, aby tworzyć narzędzia dostosowane do różnych grup użytkowników. W ostatnich latach wzrosło zainteresowanie aplikacjami AI, które mogą wspierać naukę i rozwój. Jednocześnie pojawiają się pytania o bezpieczeństwo i wpływ takich rozwiązań na młode pokolenia.

Terapeuta AI może ci zaszkodzić. Stanford ujawnia niepokojące fakty o chatbotach. Mogą popełniać o 1/3 więcej błędów niż ludzie

Terapeuta AI może ci zaszkodzić. Stanford ujawnia niepokojące fakty o chatbotach. Mogą popełniać o 1/3 więcej błędów niż ludzie

Naukowcy ze Stanford University przeprowadzili szczegółowe badanie pięciu popularnych chatbotów terapeutycznych. Wyniki pokazują niepokojące trendy związane z bezpieczeństwem AI w zdrowiu psychicznym. Zespół badawczy pod kierownictwem Nicka Habera z Stanford Graduate School of Education przeanalizował platformy takie jak Character.ai i 7cups. Okazuje się, że sztuczna inteligencja może nie tylko nie pomagać pacjentom, ale wręcz im szkodzić.

Alphabet, Meta i inni giganci bezskutecznie lobbują przeciwko wprowadzeniu przepisów dotyczących sztucznej inteligencji

Alphabet, Meta i inni giganci bezskutecznie lobbują przeciwko wprowadzeniu przepisów dotyczących sztucznej inteligencji

UE konsekwentnie realizuje plan wprowadzenia najbardziej restrykcyjnych na świecie regulacji dotyczących AI. Pomimo intensywnych starań największych koncernów technologicznych, Komisja Europejska nie zamierza ustępować w kwestii harmonogramu wprowadzania AI Act. Nowe przepisy, które wejdą w życie już w sierpniu 2025, mogą znacząco wpłynąć na sposób działania popularnych modeli AI i zmienić globalny krajobraz technologiczny.

Badacze ukrywają prompty AI w publikacjach naukowych, aby manipulować systemami recenzji peer-review

Badacze ukrywają prompty AI w publikacjach naukowych, aby manipulować systemami recenzji peer-review

Sztuczna inteligencja coraz częściej wspiera proces recenzowania naukowego, ale jej rosnące wykorzystanie otwiera drzwi dla nowych form manipulacji. Badacze z renomowanych uczelni na całym świecie zaczęli stosować niekonwencjonalne metody wpływania na oceny swoich prac, wykorzystując ukryte instrukcje dla systemów AI. Te techniki rzucają nowe światło na problemy związane z integracją sztucznej inteligencji w środowisku akademickim.

Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?

Anthropic chce zajrzeć do wnętrza AI. Czy do 2027 roku odkryjemy, jak naprawdę myślą modele językowe?

Wraz z rosnącym znaczeniem technologii wykorzystujących AI, coraz częściej pojawiają się pytania o sposób ich projektowania i dalszy rozwój. Przejrzystość, bezpieczeństwo i odpowiedzialność stają się tematami, które interesują nie tylko specjalistów, lecz także opinię publiczną. Nowe inicjatywy badawcze podejmowane przez twórców modeli językowych mogą w najbliższych latach zmienić sposób myślenia o systemach AI i ich zastosowaniach.

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.