Oszustwa telefoniczne właśnie stały się dużo cięższe do rozpoznania. Wszystko dzięki sztucznej inteligencji
Większość osób zdaje sobie sprawę, że w związku z błyskawicznym rozwojem wszelkich usług opartych o sztuczną inteligencję, rosną również związane z nimi zagrożenia. Do tej pory mieliśmy już styczność z wszelkiej maści fake newsami, natomiast oszuści wykorzystują także dostępne narzędzia, aby wprowadzić w błąd pojedyncze osoby. Przedstawiany w newsie proceder może dotknąć tak naprawdę każdego z nas osobiście, więc już teraz musimy powziąć środki zaradcze.
Narzędzia oparte na sztucznej inteligencji pozwalają nam na naprawdę wiele. W dobie gdzie coraz ciężej odróżnić prawdę od fikcji, do akcji wkraczają oszuści, którzy wykorzystują obecne możliwości do niecnych celów. Tym razem chodzi o nowy rodzaj oszustwa telefonicznego.
Pierwszy kraj ustanawia przepisy regulujące działanie usług opartych na sztucznej inteligencji
Do tej pory oszustwa telefoniczne wiązały się z próbami wyłudzeń pieniędzy różnymi metodami, z których większość osób zdaje już sobie sprawę. Sytuacja jest zgoła odmienna, jeśli zadzwoni do nas znajomy przyjaciel lub członek rodziny, który wpadł w tarapaty. W miarę rozwoju usług opartych na algorytmach AI mogliśmy się bardziej zorientować, jakie mamy obecnie możliwości. Aby podrobić czyiś głos, wystarczy kilkusekundowa próbka głosu. Do uzyskania lepszych efektów potrzeba co prawda trochę dłuższych nagrań, natomiast do rozmów telefonicznych nada się nawet pierwszy przypadek. Oszuści wykorzystują tę możliwość i podszywają się pod znaną komuś osobę. Słysząc znajomy głos dużo ciężej rozpoznać, czy mamy do czynienia z przekrętem, czy faktycznie nasz znajomy ma kłopoty. Prowadzona rozmowa może być na tyle realistyczna, że nie odróżnimy jej od prawdziwej. Pod koniec kwietnia na portalu CNN mogliśmy przeczytać, że do pewnej matki zadzwoniła córka, która została porwana. Okazało się jednak, że był to właśnie ten nowy rodzaj oszustwa. Całą historię przeczytamy pod tym adresem. Jak się więc chronić przed takim procederem?
Unia Europejska chce odpowiedniego nadzoru nad Sztuczną Inteligencją. Generowane treści mają podlegać ścisłej kontroli
Część z nas aktywnie korzysta z mediów społecznościowych, zamieszczając być może posty ze swoim głosem. Daje to idealną sposobność do przechwycenia go i użycia w omawianym celu. Dodatkowe zdjęcia będą jeszcze większym atutem dla przestępców, ponieważ można ich użyć do deepfake'ów (dla przykładu w 2022 roku pojawiło się wideo przedstawiające prezydenta Ukrainy, który nakłaniał rodaków do poddania się). W przypadku połączeń telefonicznych, które wydają się nam podejrzane, zawsze powinniśmy dodatkowo weryfikować tożsamość rozmówcy. Nawet jeśli zdaje nam się, że jest to bliska osoba. Jeśli numer, z którego do nas dzwoniono, jest inny, wypadałoby zadzwonić na ten zapisany w naszych kontaktach. Niestety technologia będzie szła już tylko do przodu, więc takie oszustwa będą coraz trudniejsze do rozpoznania. Zawsze powinniśmy wykazywać się ostrożnością.
Powiązane publikacje

Rządy i szpiedzy dominują w wykorzystaniu podatności zero-day. Google ujawnia, kto naprawdę stoi za najgroźniejszymi atakami
4
Urządzenia z iOS i Android nadal narażone na juice jacking. Nowe badania ujawniają kolejne luki w zabezpieczeniach
18
Reklamy tworzone przez AI i prezenterzy radiowi, którzy nie istnieją - nowa rzeczywistość, w której bez weryfikacji informacji ani rusz
30
Cyberprzestępcy z pomocą GPT-4o Mini i AkiraBota zalali 80 000 stron internetowych automatycznie generowanymi treściami SEO
11