Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

prompt injection

Badacze ukrywają prompty AI w publikacjach naukowych, aby manipulować systemami recenzji peer-review

Badacze ukrywają prompty AI w publikacjach naukowych, aby manipulować systemami recenzji peer-review

Sztuczna inteligencja coraz częściej wspiera proces recenzowania naukowego, ale jej rosnące wykorzystanie otwiera drzwi dla nowych form manipulacji. Badacze z renomowanych uczelni na całym świecie zaczęli stosować niekonwencjonalne metody wpływania na oceny swoich prac, wykorzystując ukryte instrukcje dla systemów AI. Te techniki rzucają nowe światło na problemy związane z integracją sztucznej inteligencji w środowisku akademickim.

Eksperci ostrzegają, że jedno polecenie może przejąć kontrolę nad AI. Policy Puppetry to słabość wszystkich głównych modeli LLM

Eksperci ostrzegają, że jedno polecenie może przejąć kontrolę nad AI. Policy Puppetry to słabość wszystkich głównych modeli LLM

W ostatnim czasie eksperci ds. bezpieczeństwa sztucznej inteligencji przedstawili wyniki badań, które rzucają nowe światło na sposób działania dużych modeli językowych. Okazuje się, że niektóre mechanizmy odpowiedzialne za kontrolowanie generowanych treści mogą być podatne na nieoczekiwane manipulacje. To odkrycie może mieć znaczenie dla przyszłości rozwoju rozwiązań bazujących na AI i ich wykorzystania w różnych dziedzinach.

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.