Fałszywe twarze, prawdziwe oszustwa
Usiłuję sobie wyobrazić, jak wyglądałoby nasze życie, gdybyśmy nie mogli ufać niczemu, co widzimy i słyszymy w mediach. Gdzie byśmy się podziały, gdybyśmy nie mogli wierzyć wypowiedziom naszych liderów, celebrytów czy ekspertów? To przerażająca wizja, w której nic nie jest pewne, a każda wiadomość mogłaby okazać się sprytną pułapką zastawioną przez cyberoszustów. Niestety ta rzeczywistość jest coraz bliższa, a jednym z kluczowych graczy w tym niepokojącym scenariuszu jest technologia deepfake.
Deepfake – nowy wymiar oszustw
Termin deepfake to połączenie dwóch słów: „deep learning” – zaawansowanej techniki sztucznej inteligencji oraz „fake” oznaczającego fałsz. Deepfake’i to nic innego jak realistycznie wyglądające i brzmiące fałszerstwa, w których wykorzystywane są wizerunki i głosy znanych osób. Przestępcy coraz częściej sięgają po tę technologię, by uwiarygodnić swoje nielegalne działania i wprowadzić w błąd niczego niepodejrzewających odbiorców.
Jak to działa w praktyce? Wyobraź sobie, że przeglądasz swoją tablicę na Facebooku, a tam widzisz nagranie wideo, na którym Twój ulubiony piłkarz, Robert Lewandowski, gorąco namawia do udziału w niezwykle korzystnej inwestycji finansowej. Jego słowa i ruchy ust idealnie pasują do tego, co słyszysz. Zaskoczony i zachęcony, szybko klikasz w link, by dowiedzieć się więcej. Niestety to wszystko okazuje się sprytną pułapką zastawioną przez cyberprzestępców, którzy wykorzystali technologię deepfake do stworzenia fałszywego nagrania.
Takie właśnie przypadki coraz częściej dochodzą do nas z mediów społecznościowych. Nie tylko Robert Lewandowski, ale także inne znane osoby, takie jak prezydent Andrzej Duda, minister zdrowia Izabela Leszczyna czy influencer Kamil Labudda Budda, padły ofiarami deepfake’ów. Przestępcy bezwstydnie wykorzystują ich wizerunki i głosy, by uwiarygodnić swoje nielegalne działania i nakłonić niczego niepodejrzewających ludzi do udziału w fałszywych inwestycjach.
Jak działają cyberprzestępcy?
Cała sztuka tworzenia deepfake’ów polega na tym, aby stworzyć nagranie wideo lub audio, które będzie niemal nie do odróżnienia od oryginału. Wystarczy zaledwie kilka sekund nagranego głosu danej osoby, by stworzyć nowy, fałszywy materiał dźwiękowy, który następnie można zsynchronizować z materiałem wideo.
Jak mówi Ewelina Bartuzi-Trokielewicz, ekspertka z NASK: „Dla technologii speech-to-speech, w której intonacja, emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty, oryginalnego materiału.”
Cyberprzestępcy nie poprzestają jednak tylko na prostym podmienieniu głosu. Często sięgają po zaawansowane techniki, takie jak „lip-sync”, które polegają na dostosowaniu ruchu ust wystąpień danej osoby do nowego, fałszywego tekstu. W ten sposób nagranie wideo staje się jeszcze bardziej wiarygodne.
Jeśli to jeszcze nie wystarczy, oszuści potrafią również umieścić swoje deepfake’owe materiały w szablonie przekazu telewizyjnego, np. w programie informacyjnym. To dodatkowy zabieg, który ma na celu wzbudzić w odbiorcy przekonanie o autentyczności całego nagrania.
Dlaczego deepfake’i są tak niebezpieczne?
Głównymi zagrożeniami związanymi z deepfake’ami są:
-
Manipulacja wizerunkiem i głosem znanych osób: Przestępcy wykorzystują wizerunki i głosy autorytetów, by uwiarygodnić swoje nielegalne działania. Może to prowadzić do poważnych konsekwencji dla reputacji tych osób.
-
Dezinformacja i wprowadzanie w błąd: Fałszywe nagrania mogą zawierać nieprawdziwe informacje, które mogą mieć realny wpływ na postrzeganie ważnych postaci i instytucji publicznych.
-
Straty finansowe: Naiwni odbiorcy mogą dać się nabrać na sprytne inwestycje promowane przez deepfake’owe nagrania i stracić swoje pieniądze.
-
Pogłębienie kryzysu zaufania: Jeśli ludzie nie będą mogli ufać temu, co widzą i słyszą w mediach, to zagrozi to fundamentom funkcjonowania demokratycznego społeczeństwa.
Według raportu Centrum Cyberprofilaktyki, deepfake’i to jedna z kluczowych form dezinformacji, z którą musimy się mierzyć w czasach cyfrowej transformacji. Łatwość, z jaką można tworzyć fałszywe materiały audiowizualne, zwiększa ryzyko manipulacji i wprowadzania ludzi w błąd. Dlatego tak ważne jest, abyśmy wszyscy rozwijali świadomość na temat tej technologii i poznawali sposoby, by się przed nią chronić.
Jak rozpoznać deepfake’a?
Choć technologia deepfake staje się coraz bardziej doskonała, wciąż istnieją pewne cechy, na które warto zwrócić uwagę, by odróżnić fałszywkę od oryginału:
-
Niedoskonałości w animacji twarzy: Ruchy ust, gałek ocznych czy mimika twarzy mogą nie być do końca zsynchronizowane z wypowiadanymi słowami. Poszukuj takich „dziur” w nagraniu.
-
Artefakty i zakłócenia obrazu: Oszuści często stosują techniki, takie jak nakładanie szumów czy różnego rodzaju plam, by ukryć niedoskonałości deepfake’a. Zwróć uwagę, czy obraz wydaje się naturalny i czysty.
-
Zbyt płynna lub nienaturalna mowa: Jeśli coś w sposobie mówienia danej osoby wydaje się nienaturalne, sztywne lub niezgodne z jej zwykłym stylem, to może to być znak, że mamy do czynienia z deepfake’iem.
-
Kontekst i źródło nagrania: Sprawdź, skąd pochodzi dane nagranie. Jeśli jest to materiał, którego nie można zweryfikować w wiarygodnych źródłach, to powód, by podchodzić do niego z dużą ostrożnością.
Oczywiście im bardziej zaawansowana technologia deepfake, tym trudniej będzie namierzyć tego typu niedoskonałości. Dlatego niezwykle ważne jest, byśmy nauczyli się krytycznego myślenia i zachowywania zdrowego rozsądku, gdy napotykamy materiały, które mogą budzić nasze podejrzenia.
Jak chronić się przed deepfake’ami?
Najlepszą obroną przed deepfake’ami jest zdrowy sceptycyzm i czujność. Oto kilka praktycznych wskazówek:
-
Weryfikuj źródła: Zanim uwierzysz w jakikolwiek materiał audiowizualny, staraj się dociec, skąd on pochodzi i czy można go zweryfikować w wiarygodnych mediach.
-
Nie podejmuj szybkich decyzji: Cyberprzestępcy często liczą na to, że ich fałszywe nagrania wywołają emocjonalne reakcje i szybkie działania. Zachowaj spokój i zastanów się dwa razy, zanim zareagujesz.
-
Zgłaszaj podejrzane treści: Jeśli natrafisz na materiał, który wydaje Ci się fałszywy, niezwłocznie poinformuj o tym odpowiednie instytucje, takie jak CERT Polska lub administratorów portali społecznościowych.
-
Bądź świadomy socjotechnik: Poznaj najczęstsze metody stosowane przez cyberprzestępców, takie jak wywoływanie emocji czy zachęcanie do szybkiego działania. Dzięki temu łatwiej będzie Ci rozpoznać próbę manipulacji.
-
Korzystaj z wiarygodnych źródeł: Staraj się czerpać informacje z renomowanych, sprawdzonych mediów. Unikaj materiałów z nieznanych lub podejrzanych stron internetowych.
Pamiętaj, że w walce z deepfake’ami najważniejsza jest nasza czujność i rozsądek. Tylko zachowując krytycyzm i rozwagę, będziemy w stanie uchronić siebie i innych przed niebezpiecznymi konsekwencjami fałszywych nagrań.
Warto również wspomnieć o stronie internetowej stop-oszustom.pl, która powstała, aby edukować społeczeństwo na temat różnych form cyberoszustw, w tym również deepfake’ów. Znajdziesz tam cenne porady i informacje, które pomogą Ci bezpiecznie poruszać się w cyfrowym świecie.
Podsumowanie
Technologia deepfake to podstępne narzędzie w rękach cyberprzestępców, które stanowi poważne zagrożenie dla naszego zaufania do informacji i autorytetów. Realistycznie wyglądające i brzmiące fałszerstwa mogą mieć poważne konsekwencje – od strat finansowych po podważenie fundamentów funkcjonowania demokratycznego społeczeństwa.
Dlatego tak ważne jest, abyśmy rozwijali świadomość na temat tej technologii, uczyli się ją rozpoznawać i chronili siebie oraz bliskich przed niebezpiecznymi konsekwencjami deepfake’ów. Tylko zachowując czujność, krytyczne myślenie i zdrowy rozsądek, będziemy w stanie przeciwstawić się tej nowej formie oszustw.
Pamiętajmy, że w czasach fake newsów i deepfake’ów nic nie jest oczywiste. Warto więc zastanowić się dwa razy, zanim uwierzymy w to, co widzimy i słyszymy. Nasza czujność i rozsądek mogą okazać się kluczowe w walce z cyberprzestępcami, którzy coraz śmielej sięgają po zaawansowane technologie, by nas oszukać.