Ekspertka ostrzega: „deepfake’i” zagrożeniem dla rynków finansowych

Ekspertka ostrzega: „deepfake’i” zagrożeniem dla rynków finansowych

Czy kiedykolwiek zastanawiałeś się nad tym, jak wiele informacji możemy teraz zdobyć o osobie poprzez jedno kliknięcie? Zdajemy sobie sprawę, że media społecznościowe mogą być prawdziwą kopalnią wiedzy na temat naszych znajomych, rodziny czy celebrytów. Niestety, ta dostępność danych to również prawdziwa pułapka na naiwnych, którą z chęcią wykorzystują cyberprzestępcy.

Jak donosi portal NetComplex, w 2024 roku aż 200 tysięcy firm będzie musiało dostosować się do nowej Dyrektywy NIS2, wprowadzającej wymogi dotyczące cyberbezpieczeństwa. Wynika to z faktu, że cyberzagrożenia, takie jak ataki phishingowe i ransomware, dotykają coraz więcej przedsiębiorstw na terenie całej Europy. Jednym z kluczowych elementów tej dyrektywy jest wprowadzenie koncepcji Zero Trust, czyli ograniczenia dostępu do danych tylko do niezbędnego minimum. Dodatkowo organy nadzorcze będą przeprowadzać regularne audyty i skanowanie bezpieczeństwa, aby chronić kluczowe podmioty przed nieproszonymi gośćmi.

Jednak czy te działania faktycznie wystarczą, by uchronić nas przed coraz bardziej zaawansowanymi metodami oszustw? Według ekspertki z Naukowej i Akademickiej Sieci Komputerowej NASK, Joanny Gajewskiej, kluczowym zagrożeniem na najbliższą przyszłość będą tak zwane „deepfake’i” – zaawansowane technologie pozwalające na generowanie fałszywych nagrań audio i wideo, które są niemal nie do odróżnienia od oryginałów.

Głos znajomego, prośba o pieniądze

Wyobraź sobie tę sytuację: odbierasz telefon, a w słuchawce słyszysz znajomy głos Twojej przyjaciółki. Jest wyraźnie zdenerwowana i prosi Cię o pilną pożyczkę, bo zgubiła portfel lub miała wypadek. Nie zastanawiasz się dłużej i szybko wypełniasz przelew, by pomóc bliskiej osobie. Niestety, okazuje się, że to nie Twoja przyjaciółka, ale sprawnie wykonane „audio deepfake” – sztuczne nagranie jej głosu stworzone przez cyberprzestępców.

Gajewska wyjaśnia, że tego typu oszustwa stają się coraz bardziej powszechne. Sprawcy włamują się na konto ofiary w mediach społecznościowych, nagrywają jej głos, a następnie wysyłają wiadomości do znajomych z prośbą o pilną „pożyczkę”. Ofiara, słysząc znajomy głos w nagranej wiadomości, reaguje emocjonalnie i traci zdrowy rozsądek, przekazując w pośpiechu pieniądze na konto przestępców.

„Słysząc mocną historię nie będziemy działać w pełni racjonalnie. Jesteśmy w nerwach i wyłącza nam się zdrowy rozsądek” – ostrzega ekspertka.

Badania firmy McAfee pokazują, że aż 10% spośród 7000 ankietowanych osób padło już ofiarą tego typu oszustwa głosowego, z czego ponad 70% straciło przez to pieniądze. Co gorsza, zaledwie 30% było w stanie rozpoznać, że nagranie to sztuczne audio deepfake, a nie prawdziwy głos znajomej osoby.

Fałszywy numer i głos dziecka

Ale to nie koniec zagrożeń. Gajewska zwraca uwagę, że cyberprzestępcy posługują się także inną metodą – „speech-to-speech deepfake”. W tym przypadku oszuści w czasie rzeczywistym konwertują swój głos na głos ofiary, dzwoniąc do niej na przykład z numerem jej dziecka.

„Odbieramy telefon i słyszymy głos znajomego, który prosi nas o wsparcie, bo uległ na przykład wypadkowi, zgubił portfel albo został okradziony. Przestępcy przewidują, że szybko zareagujemy i wyślemy przelew mobilny” – wyjaśnia ekspertka.

Znowu emocje biorą górę nad rozsądkiem, a my bezmyślnie wysyłamy pieniądze, nie weryfikując informacji. Ba, czasem nawet nie zwracamy uwagi, że numer na wyświetlaczu jest prawdziwy – bo przecież to nasz syn lub córka.

Gajewska podkreśla, że rozwój usług finansowych, takich jak Blik, ułatwia działanie przestępcom. Szybkie przelewy z poziomu smartfona to ogromna wygoda, ale też idealne narzędzie do kradzieży. Dlatego tak istotne jest, abyśmy zawsze dokładnie sprawdzali dane transakcji, zanim je zatwierdzimy.

Pandemia deepfake’ów

Niestety, ekspertka z NASK przewiduje, że problem deepfake’ów będzie się nasilać. Rozwój technologii generującej fałszywe nagrania audio i wideo przyspiesza w zastraszającym tempie. Materiały są coraz lepsze, a przestępcy coraz bardziej kreatywni.

„To, co widzieliśmy jeszcze miesiąc temu, ogromnie różni się od tego, co widzimy dziś. Materiały są coraz lepsze, coraz bardziej kreatywne” – alarmuje Gajewska.

Sytuacji nie ułatwia też fakt, że media społecznościowe dostarczają cyberprzestępcom ogromnej ilości informacji na temat potencjalnych ofiar. Jak łatwo się domyślić, im więcej danych mają na nasz temat, tym łatwiej im stworzyć wiarygodne nagranie czy wiadomość.

Zdaniem ekspertki, kluczem do obrony przed tymi zagrożeniami jest edukacja społeczeństwa. Musimy nauczyć się, jak rozpoznawać fałszywe nagrania, weryfikować informacje i zachowywać zdrowy rozsądek, nawet w stresujących sytuacjach. Ważne jest też, by rozwijać technologie, które wykrywają deepfake’i w czasie rzeczywistym.

„Narzędzie zainstalowane na naszych urządzeniach umożliwiające weryfikację danego materiału czy to audio, czy wideo, w czasie rzeczywistym w dużej mierze rozwiązałoby problem” – przekonuje Gajewska.

Oczywiście, potrzebne są również odpowiednie regulacje prawne, które będą nadążać za rozwojem technologii i nakładać surowe kary na twórców deepfake’ów. Jak widać, walka z tym zagrożeniem dopiero się rozkręca, a my musimy być czujni, by nie dać się złapać w cyfrowe sidła.

Dlatego warto zapamiętać kilka podstawowych zasad bezpieczeństwa: weryfikować informacje, zanim podejmiemy jakiekolwiek działania, zachować zdrowy rozsądek nawet w stresującej sytuacji oraz ograniczać udostępnianie naszych danych w mediach społecznościowych. Tylko wtedy mamy szansę uchronić się przed oszustwami wykorzystującymi najnowsze technologie.

Scroll to Top