Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

data poisoning

Wystarczy 250 dokumentów aby zhakować każdy model AI. Data poisoning zmienia zachowanie LLM

Wystarczy 250 dokumentów aby zhakować każdy model AI. Data poisoning zmienia zachowanie LLM

Współczesne modele językowe, takie jak te stosowane w popularnych chatbotach, uczą się na podstawie gigantycznych zbiorów danych. Ich jakość i wiarygodność ma istotne znaczenie dla zachowania AI. Twórcy tych systemów stosują zaawansowane filtry i techniki bezpieczeństwa, aby zapewnić, że AI będzie działać w sposób przewidywalny i pomocny. Najnowsze badania pokazują, że nawet te zabezpieczenia można obejść w zaskakująco prosty, a jednocześnie bardzo podstępny sposób.

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.