Fałszywe inwestycje w czasach fake newsów i deepfake’ów – jak być ostrożnym?

Fałszywe inwestycje w czasach fake newsów i deepfake’ów – jak być ostrożnym?

W dobie wszechobecnych technologii cyfrowych i niekończącego się strumienia informacji, coraz trudniej jest odróżnić prawdę od fikcji. Jednym z najpoważniejszych zagrożeń, które w ostatnich latach zyskało na popularności, są oszustwa wykorzystujące technologię deepfake. Ta pozornie niewinna technika syntetyzowania obrazu i dźwięku stała się narzędziem w rękach cyberprzestępców, którzy bezwzględnie wykorzystują ją do zwodzenia niczego niepodejrzewających ofiar.

Oszustwa deepfake na rynku inwestycyjnym

Jednym z najbardziej alarmujących przypadków nadużyć technologii deepfake były fałszywe inwestycje, w które rzekomo mieli zachęcać znani i szanowani ludzie. Według ekspertów z NASK, od początku maja 2024 roku w serwisach społecznościowych pojawiło się wiele nowych oszustw wykorzystujących technologię deepfake. Przestępcy bezprawnie wykorzystali w nich wizerunki i podrobili głosy m.in. prezydenta Andrzeja Dudy, minister zdrowia Izabeli Leszczyny, piłkarza Roberta Lewandowskiego, influencera Kamila Labuddy „Buddy” oraz biznesmena Rafała Brzoski, prezesa InPostu.

W nagraniach wideo umieszczonych na Facebooku, te znane osobistości miały zachęcać do wyjątkowo korzystnych, acz fikcyjnych inwestycji finansowych. Eksperci z NASK wyjaśnili, że oszuści wykorzystali technikę lip-sync – manipulację, która polegała nie tylko na podmianie tekstu mówionego głosem osoby występującej na nagraniu, ale także na dostosowaniu ruchu ust do wypowiadanych słów. Takie zabiegi pozwalały stworzyć materiał, który na pierwszy rzut oka wydawał się autentyczny.

Rafał Brzoska, prezes InPostu, stwierdził, że mimo jego szybkiej reakcji i zgłoszenia sprawy do administratorów Facebooka, stanowcze protesty polskiego biznesmena nie spowodowały reakcji serwisu przez wiele dni. Podobna sytuacja spotkała prawdopodobnie innych pokrzywdzonych, których wizerunki i głosy zostały wykorzystane w tych fałszywych nagraniach.

Jak skutecznie wykrywać deepfake’i?

Coraz trudniejsze do wykrycia deepfake’i stanowią ogromne wyzwanie. Według Eweliny Bartuzi-Trokielewicz z zespołu analizy deepfake w NASK, technologie umożliwiają obecnie przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu text-to-speech wystarczy zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z dowolnym materiałem wideo. Jeszcze trudniejsze do wykrycia są deepfake’i oparte na technologii speech-to-speech, gdzie do wykonania podróbki potrzebny jest dłuższy, około minutowy fragment oryginalnego materiału.

Eksperci podkreślają, że coraz częściej oszuści stosują też techniki mające na celu ukrycie artefaktów generowanych przez sztuczną inteligencję, takie jak dodawanie szumów czy różnego rodzaju plam na nagraniach. Ma to dezorientować algorytmy automatycznej detekcji deepfake’ów.

Pomimo tych wyzwań, istnieją pewne sposoby, aby zwiększyć świadomość społeczną i zminimalizować ryzyko padnięcia ofiarą tego typu oszustw:

  1. Analiza techniczna nagrania: Uważny odbiorca może być w stanie wykryć błędy w nagraniu zmanipulowanym technologią deepfake, choć z każdym dniem staje się to coraz trudniejsze.

  2. Analiza przekazu i treści: Należy zwrócić uwagę na niespójności w treści, emocjach czy zachowaniu osoby przedstawionej na nagraniu, które mogą sugerować, że mamy do czynienia z deepfake’iem.

  3. Znajomość socjotechnik stosowanych przez oszustów: Przestępcy celowo tworzą treści, które mają wzbudzać silne emocje i zachęcać do szybkich działań. Zachowanie zdrowego rozsądku i ostrożności jest kluczowe.

  4. Zgłaszanie podejrzanych materiałów: Każde napotkane oszustwo deepfake warto zgłaszać do zespołu CERT Polska lub administratorów stron, na których się pojawiło. W przypadku treści z udziałem nieletnich, należy niezwłocznie powiadomić Dyżurnet.pl.

Walka z postępującym rozwojem technologii deepfake to wyzwanie, które wymaga zaangażowania zarówno po stronie użytkowników, jak i ekspertów zajmujących się ich analizą. Tylko wspólnymi siłami możemy ograniczyć negatywny wpływ tej technologii na społeczeństwo i chronić się przed coraz bardziej wyrafinowanymi metodami oszustw.

Jeśli podejrzewasz, że padłeś ofiarą deepfake’a lub innego rodzaju oszustwa, nie zwlekaj – sprawdź, co możesz zrobić, aby się chronić, na stronie stop-oszustom.pl. Tam znajdziesz również wskazówki, jak skutecznie reagować w takich sytuacjach.

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Scroll to Top