Nie daj się nabrać na fałszywe inwestycje – poznaj najnowsze trendy oszukańczych schematów

Nie daj się nabrać na fałszywe inwestycje – poznaj najnowsze trendy oszukańczych schematów

W dzisiejszym cyfrowym świecie oszuści nieustannie poszukują nowych sposobów na wyłudzenie pieniędzy od niczego niepodejrzewających konsumentów. Jednym z takich niebezpiecznych trendów jest wykorzystywanie zaawansowanych technologii, takich jak klonowanie głosu, do stworzenia realistycznych deepfakeów audio i wideo. Te syntetyczne materiały mogą być następnie wykorzystywane do uruchamiania złożonych schematów wyłudzania, które mogą być trudne do wykrycia.

Klonowanie głosu – od legalnych zastosowań do niebezpiecznych oszustw

Klonowanie głosu to proces wykorzystujący narzędzia sztucznej inteligencji do tworzenia syntetycznych kopii głosu innej osoby. Ta zaawansowana technologia opiera się na technikach głębokiego uczenia, które pozwalają odtworzyć mowę danej osoby i stworzyć wysoce realistyczny oraz przekonujący dźwięk ludzkiego głosu. W porównaniu do głosów syntetycznych generowanych całkowicie przez komputer, klonowanie głosu wykorzystuje rzeczywisty głos innej osoby, aby uzyskać bardziej naturalny efekt.

Mimo że technologia klonowania głosu ma wiele legalnych zastosowań, takich jak edukacja, opieka zdrowotna i rozrywka, jest ona niestety często wykorzystywana do nielegalnych działań. Oszustwa polegające na klonowaniu głosu wykorzystują sztuczną inteligencję do powielania głosów zaufanych osób w celu manipulowania, oszukiwania i wyrządzania krzywdy finansowej i fizycznej innym ludziom.

Deepfake audio na platformach społecznościowych

Oszuści szybko dostrzegli potencjał platform społecznościowych jako narzędzia do rozpowszechniania swoich fałszywych narracji. Miliony użytkowników korzystających codziennie z serwisów takich jak Facebook, Instagram czy Twitter stanowią łakome terytorium dla cyberprzestępców, którzy mogą wykorzystywać naturalne zaufanie ludzi do znanych osobistości.

Badania przeprowadzone przez zespół Bitdefender wykazały, że w ciągu ostatnich tygodni platformy społecznościowe Meta były bombardowane fałszywymi postami przedstawiającymi prezenty promowane przez celebrytów. Te oszukańcze reklamy obiecywały dostęp do ekskluzywnych produktów i usług, wykorzystując wizerunek i głos znanych osób, takich jak Elon Musk, Jennifer Aniston, Oprah czy MrBeast.

Laboratoria Bitdefender uważnie monitorowały to zjawisko i odkryły szereg interesujących szczegółów na temat tych deepfakeów audio:

  1. Wykorzystanie znanych osobistości: Większość wykrytych treści wykorzystywała generatory głosu AI do klonowania głosów takich gwiazd, jak Elon Musk, Jennifer Aniston, Oprah, MrBeast, Tiger Woods, Kylie Jenner, Hulk Hogan i Vin Diesel.

  2. Cel na Rumunię: Sfałszowane reklamy przeznaczone dla odbiorców w Rumunii wykorzystywały skradzione filmy z syntetycznie generowanymi głosami znanych osobistości, takich jak prezenterka wiadomości Andreea Esca, tenisistka Simona Halep, prezydent Klaus Iohannis, premier Marcel Ciolacu, prezes Narodowego Banku Rumunii Mugur Isărescu i biznesmen Gigi Becali.

  3. Luksusowe nagrody i inwestycje: Oszuści wykorzystywali wizerunek tych osób publicznych do promowania różnych rozdań drogich towarów, takich jak najnowszy model iPhone’a, MacBooki, foteliki samochodowe Chicco, zestawy narzędzi DeWalt, odkurzacze Dyson czy torebki Michael Kors i Coach za rzekome 215 USD. Inne popularne tematy to inwestycje i hazard.

  4. Fałszywe strony i linki: Fałszywe reklamy na Facebooku przekierowywały użytkowników do stron internetowych promujących prezenty lub możliwości inwestycyjne. Niektóre z nich wykorzystywały techniki, aby uniemożliwić analizę domeny w sandboxie.

  5. Skala i zasięg: Analiza zasięgu reklam przeprowadzona przez zespół Bitdefender szacuje, że celem oszustw polegających na klonowaniu głosu było co najmniej 1 milion użytkowników w USA i Europie, w tym w Rumunii, Francji, Austrii, Belgii, Portugalii, Hiszpanii, Polsce, Szwecji, Danii, na Cyprze i w Holandii.

Chociaż większość analizowanych przez Bitdefender deepfakeów audio i filmów była słabo wykonana, z wyraźnymi artefaktami i nieprawidłowościami, to wciąż mogą one okazać się wystarczająco przekonujące, aby oszukać nieświadomych użytkowników. Oszuści ciągle udoskonalają swoje techniki, a postęp w technologii sztucznej inteligencji i głębokiego uczenia się znacznie poprawia jakość syntetycznie tworzonych głosów.

Uważaj na fałszywe oferty i prośby o dane osobowe

Jednym z kluczowych elementów tych oszukańczych schematów jest wykorzystywanie naturalnego zaufania ludzi do celebrytów i osób publicznych. Reklamy z wykorzystaniem deepfakeów audio są zaprojektowane tak, aby wyglądać na w pełni autentyczne i przychylne, zachęcając użytkowników do szybkiego działania, aby „nie przegapić” rzekomo wyjątkowej okazji.

Po kliknięciu fałszywego linku użytkownicy są przenoszeni na stronę internetową promującą rozdanie, na której muszą wypełnić ankietę i podać swoje dane osobowe, w tym imię, nazwisko, adres e-mail i numer telefonu. Często na tej stronie są również wymagane numery kart kredytowych w celu opłacenia rzekomo niskiej kwoty za wysyłkę nagrody.

Oczywiście nagroda nigdy nie dociera do użytkowników, a ich dane osobowe i informacje o karcie kredytowej są wykorzystywane do dalszych oszukańczych działań. Niektóre z fałszywych reklam zawierają także obietnice ogromnych zysków z inwestycji, które równie dobrze mogą okazać się całkowicie fikcyjne.

Dlatego też zawsze należy zachować szczególną ostrożność w przypadku napotkania w Internecie niezwykle korzystnych ofert, zwłaszcza jeśli są one powiązane z popularnymi osobistościami. Zanim podejmiesz jakiekolwiek działania, upewnij się, że oferta jest autentyczna i wiarygodna, korzystając z oficjalnych kanałów komunikacji danej osoby lub organizacji.

Jak chronić się przed oszustwami opartymi na klonowaniu głosu?

Mimo że wykrywanie wysokiej jakości deepfakeów audio może być bardzo trudne, istnieje kilka wskazówek, którymi warto się kierować, aby zabezpieczyć się przed tego typu oszustwami:

  1. Sprawdź jakość i spójność głosu: Zwróć uwagę na jakość głosu – niektóre sklonowane głosy mogą mieć nietypowe tony, być statyczne lub wykazywać niespójności we wzorcach mowy.

  2. Uważaj na szum tła i artefakty: Chociaż wysokiej jakości klonowanie głosu minimalizuje szumy tła, mogą one nadal występować w syntetycznych klipach audio-wideo.

  3. Bądź ostrożny w przypadku nietypowych próśb i ofert: Zachowaj czujność, jeśli rozmówca nalega na podanie danych osobowych lub pieniędzy bądź składa niezwykłe propozycje.

  4. Zweryfikuj ofertę: Jeśli coś wydaje się podejrzane, rozłącz się i skontaktuj z daną osobą lub organizacją za pośrednictwem oficjalnych kanałów.

  5. Uważaj na udostępnianie danych osobowych: Bądź ostrożny w zakresie udostępniania danych osobowych w Internecie i unikaj dzielenia się próbkami swojego głosu.

  6. Korzystaj z oprogramowania antywirusowego: Stosuj kompleksowe rozwiązania zabezpieczające, takie jak Bitdefender Total Security, które mogą chronić przed tego typu oszustwami.

  7. Używaj narzędzi do wykrywania oszustw: Skorzystaj z Bitdefender Scamio, bezpłatnego chatbota i detektora oszustw, aby sprawdzić, czy treści, z którymi masz do czynienia, nie są próbą wyłudzenia.

  8. Bądź na bieżąco z zagrożeniami: Śledź aktualne informacje na temat nowych trendów w oszustwach internetowych, aby być przygotowanym na zmieniające się metody cyberprzestępców.

  9. Zgłaszaj podejrzane działania: Zawsze zgłaszaj oszustwa związane z klonowaniem głosu, z którymi się spotkasz, na platformach społecznościowych, a także powiadamiaj odpowiednie organy.

Podsumowując, technologia klonowania głosu stwarza nowe, niebezpieczne możliwości dla cyberprzestępców. Jednak poprzez świadomość zagrożeń, ostrożność w Internecie i korzystanie z właściwych narzędzi bezpieczeństwa, możemy skutecznie chronić się przed tego typu oszustwami. Pamiętaj – czujność i zdrowy rozsądek to klucz do zachowania bezpieczeństwa w cyfrowym świecie.

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Scroll to Top