3000% oszustw więcej

Amerykańskie firmy monitorujące oszustwa w sieci alarmują, że lawinowo przybywa oszustw z wykorzystaniem technologii generatywnej sztucznej inteligencji. Rok do roku to ok 3000% prób oszustw więcej. W Europie jest ich mniej niż w USA, ale w dalszym ciągu ponad 1000% więcej. Danych polskich nie znalazłem – możemy przypuszczać, że zjawisko przyjdzie do nas później niż do Angliii, Niemiec czy do Francji, bo modele sztucznej inteligencji generatywnej najpierw rozwijane są w innych językach niż język polski. Z naszego, polskiego punktu widzenia jest to cisza przed burzą.

Najwięcej prób oszustwa dotyczy handlu kryptowalutami. Na drugim miejscu jest sektor bankowości internetowej. Najnowszym zjawiskiem są oszustwa deep-fake polegające na wygenerowaniu obrazu twarzy i podłożeniu podczas połączenia wideo z bankiem lub na zdjęciach weryfikacyjnych. Prostsze oszustwa polegają na wygenerowaniu obrazów – zdjęć lub obrazów dokumentów tożsamości.

Źródło: Midjourney.com

Po założeniu konta na fałszywą tożsamość teoretycznie można byłoby na to konto przelewać środki pochodzące z innych oszustw czy wyłudzać kredyty albo pożyczki. Problem potencjalnie może stać się bardzo poważny, bo w Polsce np. sprawy urzędowe również możemy załatwiać wirtualnie.

W trakcie pandemii wprowadzono również możliwość zakładania Profilu zaufanego przez wideo, czyli internetowej tożsamości pozwalającej na załatwianie spraw urzędowych. Weryfikacja odbywa się podczas wideorozmowy na żywo z urzędnikiem/urzędniczką. Jeśli profil zakładamy poprzez bank, to wtedy musi on przechowywać nagranie przez 6 lat i wg. prawa dokonać „należytej staranności” podczas weryfikowania tożsamości.

Zapytałem Ministerstwo Cyfryzacji, czy w ostatnich latach były zmiany procedur bezpieczeństwa lub nowe szkolenia odnośnie deep-fejków, ale pośrednio odpowiedzieli mi, że zmian procedur nie było natomiast ministerstwo współpracuje z NASKiem w celu zwiększenia świadomości zagrożeń – jako przykład podali tę stronę. Wskazali również, że przepisy europejskie dotyczące poziomów bezpieczeństwa identyfikacji elektronicznej pochodzą z 2014 roku.

Przepisy mówią, że średni poziom zabezpieczeń (a może być niski, średni lub wysoki) wynika z oceny ryzyka. Możemy się domyślać, że w 2014 ryzyko związane z oszustwami deep-fake było niskie i choć liczba zdarzeń w Europie rośnie, to w dalszym ciągu takich przypadków nie jest bardzo dużo.

Od kilku lat możemy również w polskich bankach zakładać konta przez internet weryfikując tożsamość zdjęciem lub połączeniem wideo – tu procedury niekiedy nie narzucają konieczności wideorozmowy na żywo. Banki nie ujawniają, jak działa ich oprogramowanie i procedura, ale na podstawie publicznie dostępnych informacji możemy się domyślać, że zagrożenia deep-fake zostały już dostrzeżone. Np. PKO BP informuje, że podczas wideoweryfikacji mogą poprosić o obracanie głową, mruganie oraz o wykonywanie gestów. Chodzi o to, że na obecnym etapie rozwoju technologii generowania obrazu, w takiej sytuacji z reguły deep-fake staje się widoczny dla ludzkiego oka.
Inne banki, które oferują taką usługę założenia konta przez internet to np. Alior Bank czy Bank BNP Paribas.

Jeśli banki wymagają, żeby wideoweryfikacja potrzebna do założenia konta odbywała się w ich aplikacji na telefon, to nie zapobiega to atakom typu podmiana twarzy (face-swap), natomiast je utrudnia. Niemożliwe staje się najprostsze oszustwo z użyciem appek na telefon, których jest wiele już teraz! Poniżej appki do face-swap które znalazłem w parę sekund.

Źródło: google.com

Od technicznej strony bardziej wyrafinowane ataki mogą polegać na tym, że na komputerze instalowane jest oprogramowanie udające telefon. Emulatory pozwalają np. na uruchomienie wirtualnej kamery i wysyłania z niej obrazu oraz dźwięku. Jednocześnie mniej wymagające procedury czy systemy zabezpieczeń można próbować oszukać używając darmowych aplikacji na telefon, które dają dla rozrywki możliwość podmiany twarzy w czasie rzeczywistym. Takie oprogramowanie do deep-fake’ów jest publicznie dostępne, np. na GitHubie.

Jeśli do publicznie dostępnego oprogramowania do deep fejków dodać publicznie dostępne nagrania wideo deep-fejkowanych osób, np. z You Tube, wtedy powstaje mieszanka zaiste piorunująca. Takie oszustwo, jak to, które wydarzyło się w ubiegłym tygodniu w Chinach. Wideo z wysokim urzędnikiem firmy zostało wykorzystane do sklonowania jego wizerunku oraz głosu.

Telewizja CNN podała informację o tym, jakoby w Hong Kongu pracownik finansowy chińskiej firmy został oszukany przy pomocy technologii deep-fake i skłoniony do przelewu środków wartości ok. 25 mln. $. Polecenie podczas połączenia wideo miała wydać mu osoba wyglądająca jak jego szef oraz jego współpracownicy. Jak mediom powiedział komisarz zajmujący się sprawą: – Żadna z osób, które wystąpiły w tym wideo nie była prawdziwa.

W obliczu rosnącej zarówno dostępności technik oszustwa jak i liczby oszustw, zasadne jest podejście typu Zero-Trust. Zakłada ono, że atak się wydarzył i w związku z tym nasze podejście do problemu jest z marszu pesymistyczne: jeśli ktoś dzwoni/pisze/łączy się i chce naszych danych albo naszych pieniędzy, to jest to fejk i ta osoba musi się uwiarygodnić. Zakładamy, że jest to deep-fake aż do momentu, gdy potwierdzi się tożsamość tej osoby w inny sposób; na przykład ta osoba wie coś, czego żadna osoba obca, podszywająca się nie wiedziałaby (ja kiedyś oszusta podczas rozmowy na Fb zapytałem, kto był naszym nauczycielem w szkole średniej). W kontaktach prywatnych i urzędowych niezłym sposobem weryfikacji są więc pytania i odpowiedzi uwiarygadniające - podobnie jak przy odzyskiwaniu hasła.

Fałszowanie dokumentów faktycznie dzięki generatywnej AI stało się znacznie prostsze. Już teraz osoby pracujące w sklepach mówią, że np. młodzież próbuje kupować papierosy i alkohol przedstawiając fałszywe obrazy rzekomo aplikacji mObywatel albo fałszywe dokumenty nieudolnie wyprodukowane w domu.

Prognozy rozwoju zjawiska nie są jednoznaczne. Z jednej strony spodziewany jest dalszy wzrost liczby prób oszustw; niektóre stały się zautomatyzowane więc profesjonalne organizacje przestępcze po prostu włączają algorytm, który podejmie setki tysięcy czy miliony prób ataku. Z drugiej strony sektor bezpieczeństwa poważnie rozważa potrzebę szybkiej adaptacji i zmiany polityk: np. wymianę informacji na temat klientów i trwają badania algorytmów do wykrywania fałszerstw. Wyścig zbrojeń trwa.

Na podstawie:
24 Deepfake Statistics – Current Trends, Growth, and Popularity (December 2023) (contentdetector.ai)
Deepfake fraud attempts are up 3000% in 2023 — here’s why (thenextweb.com)
Money Scams: Deepfakes, AI Will Drive $10 Trillion in Financial Fraud and Crime – Bloomberg
Deepfake Digital Identity Fraud Surges Tenfold, Sumsub Report Finds – Infosecurity Magazine (infosecurity-magazine.com)
Will generative AI kill KYC authentication? | CSO Online

a także Cyberprofilaktyka NASK