Deepfake i phishing – najnowsze narzędzia oszustów inwestycyjnych

Deepfake i phishing – najnowsze narzędzia oszustów inwestycyjnych

Sztuczna inteligencja, a wraz z nią technologia deepfake voice, staje się coraz bardziej zaawansowanym narzędziem w rękach cyberprzestępców. Wykorzystują oni te nowoczesne technologie do prowadzenia wyrafinowanych oszustw inwestycyjnych, mających na celu wyłudzenie pieniędzy od niczego nieświadomych ofiar.

Klonowanie głosu – jak to działa?

Klonowanie głosu to proces, w którym narzędzia oparte na sztucznej inteligencji wykorzystują techniki głębokiego uczenia się do tworzenia syntetycznych kopii ludzkiego głosu. Wystarczą zaledwie krótkie próbki oryginalnego dźwięku, aby stworzyć niezwykle realistyczną symulację tego głosu.

Proces ten składa się z kilku kluczowych etapów:

  1. Pobieranie próbek – Pierwszym krokiem jest zgromadzenie próbek głosu danej osoby. Im więcej danych głosowych, tym dokładniejszy będzie sklonowany głos.

  2. Analiza – Oprogramowanie do klonowania głosu analizuje zebrane próbki w celu zidentyfikowania unikalnych cech głosu, takich jak wysokość, tempo, głośność i inne cechy charakterystyczne.

  3. Uczenie modelu – Dane głosowe są wykorzystywane do uczenia modelu maszynowego, który uczy się naśladować oryginalny głos.

  4. Synteza – Po zakończeniu treningu, model może generować mowę sklonowanym głosem, przekształcając wprowadzony tekst w wypowiedź brzmiącą jak oryginał.

  5. Udoskonalanie – Proces ten może być stale poprawiany poprzez dostarczanie dodatkowych danych głosowych i dostrajanie parametrów algorytmu klonowania.

Choć klonowanie głosu ma wiele legalnych zastosowań, takich jak edukacja, opieka zdrowotna czy rozrywka, to niestety jest również wykorzystywane do nielegalnych działań.

Deepfake audio w służbie oszustów

Cyberprzestępcy szybko dostrzegli potencjał deepfake audio w prowadzeniu wyrafinowanych oszustw. Wykorzystując tę technologię, mogą tworzyć fałszywe nagrania, w których słyszalny jest głos znanej osobistości, takiej jak celebryta, polityk czy biznesmen. Te syntetycznie wygenerowane nagrania są następnie szeroko rozpowszechniane w mediach społecznościowych, aby zwiększyć wiarygodność i skuteczność oszustw.

Badania przeprowadzone przez laboratoria Bitdefender ujawniły, że oszuści targetują głównie konsumentów w Stanach Zjednoczonych i Europie, w tym m.in. w Rumunii, Francji, Austrii, Belgii, Portugalii, Hiszpanii, Polsce, Szwecji, Danii, na Cyprze i w Holandii. Analiza wykazała, że celem deepfake audio było co najmniej 1 milion użytkowników.

Wśród najczęściej wykorzystywanych deepfake’ów znalazły się nagrania z głosami takich osobistości jak Elon Musk, Jennifer Aniston, Oprah, Mr Beast, Tiger Woods, Kylie Jenner, Hulk Hogan czy Vin Diesel. Oszuści podszywali się również pod rumuńskie gwiazdy, takie jak prezenterka Andreea Esca, tenisistka Simona Halep, prezydent Klaus Iohannis, premier Marcel Ciolacu, prezes Narodowego Banku Rumunii Mugur Isărescu oraz biznesmen Gigi Becali.

Według Bitdefender, fałszywe reklamy wykorzystujące klonowanie głosu promowały różnego rodzaju produkty i usługi, w tym najnowsze modele iPhone’ów, MacBooki, foteliki samochodowe, narzędzia DeWalt, odkurzacze Dyson czy torebki Michael Kors i Coach. Oferty te przedstawiano jako rzekome rozdania lub unikalne okazje, które są dostępne jedynie dla pierwszych 100-10 000 szczęśliwych odbiorców.

Innym popularnym tematem wykorzystywanym przez oszustów było inwestowanie i hazard. Fałszywe reklamy promowały rzekome inwestycje gwarantowane przez rząd rumuński i Narodowy Bank Rumunii, które miały przynosić ogromne zyski, np. 2750 RON (540 USD) w zaledwie dwa dni przy minimalnej inwestycji 700 RON (150 USD).

Aby zwiększyć wiarygodność swoich ofert, cyberprzestępcy stworzyli również sfałszowane strony internetowe popularnych serwisów informacyjnych, takich jak Digi24, Libertatea i Adevărul. Dzięki temu ich fałszywe reklamy wydawały się jeszcze bardziej wiarygodne.

Jak rozpoznać oszustwo oparte na deepfake?

Choć deepfake audio stają się coraz trudniejsze do wykrycia, istnieje kilka kluczowych wskazówek, na które warto zwrócić uwagę, aby uchronić się przed tego typu oszustwami:

  1. Sprawdź jakość i spójność głosu – Zwróć uwagę na nietypowe tony, statyczność lub niespójności w mowie.
  2. Słuchaj uważnie na szum tła i artefakty – Obecność nietypowych dźwięków lub cyfrowych artefaktów może sugerować syntetyczny charakter nagrania.
  3. Uważaj na nietypowe prośby i oferty – Jeśli coś wydaje się zbyt dobre, aby było prawdziwe, prawdopodobnie jest to próba oszustwa.
  4. Zweryfikuj ofertę – Jeśli masz wątpliwości, skontaktuj się z daną osobą lub organizacją przez oficjalne kanały, a nie wykorzystując dane podane podczas rozmowy.
  5. Bądź ostrożny z udostępnianiem danych osobowych – Unikaj dzielenia się próbkami swojego głosu oraz innymi danymi w Internecie, gdyż mogą one być wykorzystane przez oszustów.
  6. Używaj oprogramowania antywirusowego – Zainstaluj kompleksowe rozwiązanie zabezpieczające, takie jak Bitdefender Total Security, które chroni przed phishingiem i oszustwami.
  7. Korzystaj z narzędzi do wykrywania oszustw – Skorzystaj z bezpłatnego chatbota i detektora oszustw Bitdefender Scamio, aby sprawdzić podejrzane treści.
  8. Bądź na bieżąco z zagrożeniami – Śledź blogi i biuletyny, aby być świadomym najnowszych trendów w cyberoszustwach.
  9. Zgłaszaj oszustwa – Informuj platformy społecznościowe, policję i inne odpowiednie organy o każdym napotkaniu próby oszustwa.

Deepfake audio stają się coraz bardziej realistyczne i trudniejsze do wykrycia. Dlatego tak ważne jest, aby konsumenci byli świadomi tego zagrożenia i zachowywali zdrowy rozsądek przy ocenie wszelkich podejrzanych ofert czy wiadomości. Tylko wtedy możemy skutecznie chronić się przed wyrafinowanymi schematami oszustw opartych na nowoczesnych technologiach.

Jeśli chcesz dowiedzieć się więcej na temat sposobów ochrony przed cyberprzestępcami, odwiedź stronę https://stop-oszustom.pl/, gdzie znajdziesz szereg przydatnych porad i informacji.

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Scroll to Top