Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国
 

Agent sztucznej inteligencji od Google wykrywa lukę, która wcześniej była nieznana. Projekt Big Sleep przynosi efekty

Natan Faleńczyk | 05-11-2024 22:30 |

Agent sztucznej inteligencji od Google wykrywa lukę, która wcześniej była nieznana. Projekt Big Sleep przynosi efektyWykrywanie potencjalnych luk w oprogramowaniu przed jego publiczną dostępnością jest dziś kluczowe, gdyż jeśli producent tego nie zrobi zawczasu, to tuż po jego wydaniu podatność znajdą i wykorzystają cyberprzestępcy. Obecnie stosuje się wiele metod, z których żadna nie daje 100% gwarancji, że oprogramowanie będzie wolne od błędów. Sytuację może poprawić sztuczna inteligencja, a dokładniej modele językowe, które już dziś znajdują luki, jakich nikt nie mógł wykryć.

Duże modele językowe okazują się przydatne w wielu kwestiach, a jedną z nich jest wyszukiwanie potencjalnych luk w oprogramowaniu. Narzędzie od Google wykryło bowiem podatność, o której istnieniu nikt nie miał pojęcia.

Agent sztucznej inteligencji od Google wykrywa lukę, która wcześniej była nieznana. Projekt Big Sleep przynosi efekty [1]

Gmail atakowany przez cyberprzestępców z użyciem AI. Pracownik Microsoftu ostrzega przed bardzo realistycznym scamem

W połowie 2024 roku Google przedstawiło projekt Naptime, który miał zaprzęgnąć do pracy duże modele językowe (LLM), aby znajdować podatności w oprogramowaniu. Z czasem przekształcił się on w projekt Big Sleep, który jest efektem współpracy Google Project Zero z Google DeepMind. Mowa tutaj o platformie, która okazała się tym razem skuteczniejszym narzędziem od tzw. fuzzingu (generowanie losowych danych i wprowadzanie ich do programu, aby sprawdzić, jak ten na nie zareaguje). Już teraz bowiem agentowi (może on wykonywać określone operacje w sposób autonomiczny) Big Sleep udało się znaleźć lukę* w systemie zarządzania bazą danych SQLite.

Agent sztucznej inteligencji od Google wykrywa lukę, która wcześniej była nieznana. Projekt Big Sleep przynosi efekty [2]

Mistrzowski malware do zadań specjalnych. Perfctl po cichu zmienia serwery z Linuksem w koparki kryptowalut

Omawianej luki nie wykryto ani poprzez fuzzing (w tym przypadku narzędzie od Google o nazwie OSS-Fuzz), ani też przez dotychczasową infrastrukturę testową. Co dość istotne, podatność znaleziono przed wydaniem nowej wersji SQLite i od razu po zgłoszeniu jej przez Google została usunięta przez programistów. Dzięki temu żaden użytkownik nie był zagrożony. Takie rozwiązanie znacząco zwiększa bezpieczeństwo programów, gdyż ich luki mogą być łatane jeszcze przed publiczną dostępnością. Trzeba mieć na uwadze, że projekt jest w fazie eksperymentalnej, a fuzzing nadal jest bardzo skuteczną metodą wykrywania luk. Szczegółowych informacji dowiemy się z oficjalnego wpisu Google na ten temat, który znajduje się pod tym adresem.

*Luka była związana z wadliwym zarządzaniem pamięcią, a konkretniej błędem typu stack buffer underflow. Dzięki niej atakujący mógł np. wykonać konkretny kod na komputerze ofiary.

Źródło: Google, The Register
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 20

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.