Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

Deepfake głosu Marco Rubio wykorzystany w cyberataku na ministrów spraw zagranicznych i gubernatorów poprzez Signala

Deepfake głosu Marco Rubio wykorzystany w cyberataku na ministrów spraw zagranicznych i gubernatorów poprzez SignalaRozwój technologii klonowania głosu osiągnął niepokojący poziom zaawansowania. Cyberprzestępcy potrafią już w kilkanaście sekund stworzyć przekonującą imitację głosu praktycznie każdej osoby, wykorzystując do tego AI. Incydent z udziałem wysokich rangą urzędników USA pokazuje, jak łatwo można oszukać najbardziej wpływowe osoby na świecie. Sprawa dotyczy podszywania się pod Sekretarza Stanu USA i wywołała alarm w amerykańskich służbach.

Wystarczy 15 do 20 sekund nagrania danej osoby, co w przypadku Marco Rubio jest łatwe. Wgrywasz to do dowolnej usługi, klikasz przycisk mówiący "mam pozwolenie na użycie głosu tej osoby" i piszesz to, co ma powiedzieć - prof. Hany Farid, University of California w Berkeley.

Deepfake głosu Marco Rubio wykorzystany w cyberataku na ministrów spraw zagranicznych i gubernatorów poprzez Signala [1]

Cyberprzestępcy chcą sprawić, że sam się z nimi skontaktujesz. Nowe oszustwo opiera się na reklamach w Google

Po odkryciu, że cyberprzestępcy wykorzystali sztuczną inteligencję do podszywania się pod Sekretarza Stanu Marco Rubio, Departament Stanu USA wysłał wewnętrzną informację z ostrzeżeniem do wszystkich ambasad i konsulatów. Oszuści skontaktowali się z trzema ministrami spraw zagranicznych, senatorem USA i gubernatorem jednego ze stanów, wysyłając im wiadomości tekstowe, nagrania głosowe, a także komunikaty poprzez aplikację Signal. Incydent rozpoczął się w połowie czerwca, kiedy nieznany sprawca stworzył konto w aplikacji Signal używając przy tym nazwy "Marco.Rubio@state.gov". Nie był to oczywiście rzeczywisty adres e-mail Sekretarza Stanu, ale wystarczyło to do oszukania odbiorców. Oszust pozostawiał wiadomości głosowe co najmniej dwóm osobom i wysyłał teksty zachęcające do dalszej komunikacji poprzez Signala. Sprawą tą zajmuje się Bureau of Diplomatic Security oraz FBI Internet Crime Complaint Center. Władze nie ujawniły tożsamości sprawców ani szczegółów dotyczących treści wiadomości. Urzędnicy podkreślają, że próby oszustwa okazały się jednak nieskuteczne i zostały określone jako "niezbyt wyrafinowane".

Deepfake głosu Marco Rubio wykorzystany w cyberataku na ministrów spraw zagranicznych i gubernatorów poprzez Signala [2]

Domowe IP jako furtka do ataku. Jak proxy z naszych urządzeń zaciera granicę między legalnym a złośliwym ruchem sieciowym

Technologia deepfake rozwija się tak szybko, jak pojawiają się nowe wersje potężnych narzędzi do generowania i obróbki audio i wideo, czyli można rzec, błyskawicznie. Obecnie wystarczy zaledwie 15-20 sekund nagrania głosu danej osoby, aby stworzyć przekonującą imitację. W przypadku Marco Rubio, a także innych politykach, czy znanych osobach, które regularnie występują w mediach, zdobycie takiego materiału nie stanowi najmniejszego problemu. O rosnącym zagrożeniu technologiami deepfake informowaliśmy już w 2019 roku, gdy pojawiły się pierwsze przypadki manipulacji wideo z politykami, a od tego czasu technologie przeszły kolosalne zmiany i dają dużo większe możliwości.

Deepfake głosu Marco Rubio wykorzystany w cyberataku na ministrów spraw zagranicznych i gubernatorów poprzez Signala [3]

Android 16 z ochroną przed fałszywymi stacjami bazowymi typu IMSI Catcher, ale tylko dla nowej generacji smartfonów

Incydent z Marco Rubio podkreśla wrażliwość komunikatorów używanych przez urzędników państwowych. Signal, mimo szyfrowania end-to-end, budzi kontrowersje wśród służb bezpieczeństwa. Pentagon ostrzegał w marcu przed używaniem aplikacji do komunikacji służbowej po tym, jak dziennikarz został przypadkowo dodany do grupowej rozmowy dotyczącej operacji wojskowej w Jemenie. Eksperci przewidują, że liczba ataków wykorzystujących AI będzie rosła wraz z udoskonalaniem technologii. Na rynku dostępne są usługi pozwalające na niemal doskonałe klonowanie głosu przy wykorzystaniu kilkuminutowych nagrań. Możliwości aplikacji głosowych, w tym klonowanie możecie zobaczyć poniżej.  

Źródło: The Washington Post, The New York Times, NPR
Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 8

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.