Deepfake i phishing nowe narzędzia cyberprzestępców na rynkach inwestycyjnych

Deepfake i phishing  nowe narzędzia cyberprzestępców na rynkach inwestycyjnych

Oszuści wykorzystują technologię sztucznej inteligencji, aby uwiarygodnić swoje fałszywe oferty inwestycyjne

Środowisko cyberprzestępców nieustannie ewoluuje, dostosowując się do postępu technologicznego i nowych możliwości, jakie ze sobą niesie. Najnowsze trendy wskazują, że oszuści coraz częściej sięgają po zaawansowane narzędzia oparte na sztucznej inteligencji, takie jak deepfake, aby uwiarygodnić swoje działania i zwiększyć skuteczność manipulacji potencjalnymi ofiarami.

Deepfake – nowe narzędzie w rękach oszustów

Deepfake to technologia oparta na sztucznej inteligencji, umożliwiająca tworzenie niezwykle realistycznych, ale całkowicie sfałszowanych materiałów audio-wideo. Przy pomocy zaawansowanych algorytmów uczenia maszynowego i technik syntezy dźwięku oraz obrazu, cyberprzestępcy są w stanie stworzyć nagrania, na których widać i słychać znaną osobę, mówiącą i zachowującą się w sposób niezgodny z rzeczywistością.

Według raportu CSIRT KNF, instytucji zajmującej się bezpieczeństwem sektora finansowego w Polsce, w 2023 roku najczęstsze przypadki wykorzystania deepfake dotyczyły właśnie fałszywych materiałów promujących oszukańcze okazje inwestycyjne. Cyberprzestępcy podszywali się pod znane osoby, takie jak politycy, sportowcy czy celebryci, aby nadać swoim ofertom pozory wiarygodności i zwiększyć skuteczność manipulacji.

„Nagrania te są coraz bardziej wiarygodne, a wraz z rozwojem istniejących narzędzi i pojawieniem się nowych, będą stawały się coraz lepsze” – wskazują eksperci z CSIRT KNF.

Zaawansowane techniki deepfake pozwalają cyberprzestępcom nie tylko na stworzenie wiarygodnych materiałów wideo, ale także nagrań głosowych. W 2023 roku odnotowano już pierwsze przypadki wykorzystania tej metody w oszustwach określanych jako „metoda na wnuczka” czy „metoda na policjanta”. Oszuści modyfikowali głos rzekomego członka rodziny lub funkcjonariusza, aby nakłonić ofiarę do przekazania pieniędzy.

Fałszywe oferty inwestycyjne – nowy trend wśród cyberprzestępców

Oprócz wykorzystania deepfake, cyberprzestępcy sięgają po inną innowacyjną technologię – generowanie treści przy pomocy sztucznej inteligencji. Narzędzia takie jak WormGPT czy FraudGPT ułatwiają tworzenie scenariuszy oszustw, fałszywych stron internetowych czy nawet złośliwego oprogramowania.

Według danych CSIRT KNF, w 2023 roku zaobserwowano znaczny wzrost liczby fałszywych ofert inwestycyjnych, w których cyberprzestępcy podszywali się pod znane osoby lub instytucje, aby nakłonić potencjalne ofiary do zainwestowania środków. Coraz częściej w tych schematach oszustw pojawiał się motyw związany z sztuczną inteligencją, co wynika z rosnącej popularności tego tematu w przestrzeni publicznej.

„Dodatkowo przestępcy coraz częściej wykorzystują technologię deepfake do tworzenia swoich materiałów, mając na celu zwiększanie poziomu manipulacji” – wskazują eksperci.

Fałszywe oferty w postaci nagrań wideo lub statycznych reklam, zawierające wizerunki znanych osób, są następnie dystrybuowane przez różne kanały, m.in. media społecznościowe. Po kliknięciu w link ofiara trafia na stronę, gdzie wymagana jest rejestracja, a cyberprzestępcy uzyskują dostęp do danych osobowych i kontaktowych potencjalnej ofiary.

„Dane pozyskane przez cyberprzestępców w ten sposób umożliwiają im nawiązanie kontaktu z potencjalną już zmanipulowaną osobą, a w kolejnym kroku kradzież jej środków” – tłumaczą specjaliści.

Niejednokrotnie w podobnych przypadkach przestępcy zachęcali także do instalowania oprogramowania do zdalnej obsługi, co dawało im pełny dostęp do komputera ofiary. Gdy ofiara chciała wypłacić rzekome zyski, otrzymywała informację o konieczności sprawdzenia konta bankowego przez fałszywy system AML – w rzeczywistości była to strona phishingowa wyłudzająca dane logowania do bankowości elektronicznej.

Oszustwa na „zwrot podatku” i inne metody phishingowe

Cyberprzestępcy nie ograniczają się jednak wyłącznie do fałszywych ofert inwestycyjnych. Jednym z częstych schematów, szczególnie pod koniec roku, są oszustwa polegające na podszywaniu się pod instytucje rządowe i oferowaniu rzekomego zwrotu nadpłaconego podatku za 2022 rok.

Ofiara otrzymuje wiadomość e-mail lub SMS, w którym zachęcana jest do kliknięcia w link prowadzący do fałszywej strony internetowej. Na niej proszona jest o wpisanie danych karty płatniczej lub wybór banku, z którego chce dokonać zwrotu. W rzeczywistości dane te trafiają w ręce cyberprzestępców.

Podobne metody phishingowe wykorzystywane są również do podszywania się pod inne znane marki i firmy, takie jak Poczta Polska, UPS, Booking czy Wolt. Cyberprzestępcy rozsyłają fałszywe wiadomości informujące o rzekomych paczkach, zniżkach lub konieczności aktualizacji danych, a ofiara po kliknięciu w link trafia na stronę wyłudzającą jej dane.

Jak uniknąć zostania ofiarą oszustw?

Aby chronić się przed coraz bardziej wyrafinowanymi metodami cyberprzestępców, należy zachować szczególną ostrożność i krytycyzm przy każdej ofercie inwestycyjnej czy informacji o zwrocie pieniędzy:

  1. Weryfikuj źródło informacji – zanim przekażesz jakiekolwiek dane, sprawdź, czy wiadomość lub strona internetowa pochodzą od wiarygodnego podmiotu.
  2. Nie ufaj materiałom wideo lub nagraniom – pamiętaj, że technologia deepfake umożliwia tworzenie bardzo realistycznych, ale fałszywych nagrań.
  3. Nie instaluj nieznanego oprogramowania – może być ono wykorzystywane do zdalnego dostępu do Twojego komputera.
  4. Nie udostępniaj danych osobowych i finansowych – cyberprzestępcy mogą je wykorzystać do kradzieży Twoich środków.
  5. Zgłaszaj podejrzane sytuacje – w razie wątpliwości skontaktuj się z organami ścigania lub instytucjami finansowymi.

Warto również regularnie odwiedzać stronę https://stop-oszustom.pl/, gdzie znajdziesz aktualne informacje na temat nowych metod stosowanych przez cyberprzestępców oraz wskazówki, jak się przed nimi chronić.

Przypadek „metody na wnuczka” z wykorzystaniem deepfake

Jednym z przykładów coraz bardziej wyrafinowanych działań cyberprzestępców jest niedawny przypadek, w którym wykorzystano technologię deepfake do oszustwa znanego jako „metoda na wnuczka”.

Do starszej Pani zadzwonił mężczyzna podający się za policjanta, który poinformował ją, że jej córka miała wypadek i potrzebuje pomocy. W kolejnym etapie rozmowy słuchawkę przejęła rzekoma córka ofiary, której głos został zmodyfikowany przy użyciu deepfake. Kobieta została przekonana, że musi wpłacić 70 000 zł, aby uniknąć pójścia córki do więzienia.

Według relacji poszkodowanej, rozmowy odbywały się płynnie, bez żadnych zakłóceń czy nienaturalnych dźwięków w tle. Mogło to sugerować, że przestępcy wykorzystali zaawansowane narzędzia do deepfake live, pozwalające na modyfikację głosu w czasie rzeczywistym.

Na szczęście ofiara w porę zorientowała się, że padła ofiarą oszustwa i nie przekazała cyberprzestępcom żadnych pieniędzy. Jednak ten przypadek pokazuje, jak niebezpieczna może być technologia deepfake w rękach doświadczonych oszustów.

„Wykorzystanie technologii deepfake mającej ogromne możliwości wynosi działania przestępcze na nowy poziom, dając atakującym pakiet nieznanych do tej pory możliwości” – ostrzegają eksperci.

Oprócz fałszywych materiałów wideo, deepfake może być również wykorzystywany do nagrywania głosu ofiary, który następnie jest modyfikowany w celu przeprowadzenia innych typów oszustw telefonicznych. Dlatego tak ważne jest, aby być wyczulonym na wszelkie podejrzane połączenia i nigdy nie przekazywać osobom postronnym wrażliwych danych lub pieniędzy.

Działania instytucji na rzecz ochrony przed oszustwami

Instytucje zajmujące się bezpieczeństwem cyberprzestrzeni podejmują szereg działań mających na celu przeciwdziałanie coraz bardziej wyrafinowanym metodom stosowanym przez cyberprzestępców.

Według raportu CSIRT KNF, w 2023 roku zespół zidentyfikował aż 30 140 domen phishingowych, które zostały zgłoszone do zablokowania. To znaczący wzrost w porównaniu do poprzednich lat – w 2021 roku było ich 11 468, a w 2022 – 172 tys.

Ponadto, eksperci CSIRT KNF ściśle monitorują nowe trendy i zagrożenia, takie jak wykorzystanie sztucznej inteligencji przez cyberprzestępców. Regularnie informują o nich opinię publiczną, m.in. poprzez raporty roczne, aby zwiększać świadomość zagrożeń i sposobów ochrony się przed nimi.

Kluczowe jest również ścisłe współdziałanie instytucji publicznych i prywatnych w walce z cyberprzestępczością. Tylko wtedy możliwe będzie skuteczne przeciwdziałanie coraz bardziej zaawansowanym metodom stosowanym przez oszustów.

Podsumowanie

Rozwój technologii, w tym sztucznej inteligencji, niestety idzie w parze z coraz bardziej wyrafinowanymi metodami stosowanymi przez cyberprzestępców. Deepfake i narzędzia do generowania treści stają się coraz powszechniejszymi narzędziami w rękach oszustów, którzy wykorzystują je do kreowania fałszywych ofert inwestycyjnych oraz zaawansowanych kampanii phishingowych.

Aby chronić się przed tymi zagrożeniami, należy zachować szczególną czujność, krytycyzm i ostrożność przy każdej podejrzanej ofercie czy informacji. Weryfikacja źródeł, nieufność wobec materiałów wideo i audio oraz unikanie udostępniania danych osobowych to kluczowe środki ostrożności.

Instytucje zajmujące się bezpieczeństwem cybernetycznym nieustannie monitorują nowe trendy i starają się informować opinię publiczną o pojawiających się zagrożeniach. Tylko dzięki ścisłej współpracy pomiędzy sektorem publicznym i prywatnym możliwe będzie skuteczne przeciwdziałanie coraz bardziej wyrafinowanym metodom stosowanym przez cyberprzestępców.

Scroll to Top