W dzisiejszej cyfrowej erze, kiedy technologia pozwala na coraz doskonalsze manipulacje multimedialnymi treściami, inwestorzy muszą zachować szczególną ostrożność. Pojawienie się deepfake’ów – zaawansowanej techniki cyfrowej, umożliwiającej tworzenie realistycznych, ale fałszywych materiałów audiowizualnych – sławuje nowe wyzwania w zakresie weryfikacji autentyczności informacji.
Czym Są Deepfake’i Jak Działają?
Deepfake to określenie łączące dwa słowa: deep learning, czyli głębokie uczenie maszynowe, oraz fake, czyli fałszywy. Jest to technika wykorzystująca zaawansowane algorytmy sztucznej inteligencji do tworzenia nieautentycznych, ale realistycznie wyglądających obrazów, filmów i nagrań dźwiękowych.
Metoda ta opiera się na uczeniu maszynowym, które pozwala na rozpoznawanie wzorców i imitowanie cech wyglądu oraz zachowania danej osoby. W praktyce oznacza to możliwość podmiany twarzy, głosu czy gestów na nagraniach, co może prowadzić do powstania fałszywych, wprowadzających w błąd materiałów.
„Deepfake ma oczywiście ogromny potencjał kreatywny, ale niestety może mieć również bardzo negatywne skutki. Wykorzystywany w celach artystycznych do tworzenia efektów specjalnych w filmach czy kreowania nowych doświadczeń wirtualnej rzeczywistości – wzbogaci dany materiał. Ale z drugiej strony można posłużyć się nim w manipulacji, sianiu dezinformacji, oszustwach, szantażach czy naruszeniach prywatności.” – wyjaśnia ekspertka NASK, Ewelina Bartuzi-Trokielewicz.
Oszustwa Inwestycyjne Oparte na Deepfake’ach
Jednym z niepokojących zastosowań deepfake’ów są oszustwa inwestycyjne. Przestępcy coraz częściej wykorzystują tę technologię do tworzenia fałszywych filmów, w których podszywają się pod znane osobistości, takie jak politycy, celebryci czy biznesmeni.
Według doniesień Naukowej i Akademickiej Sieci Komputerowej (NASK), od początku maja 2024 roku w serwisach społecznościowych pojawiło się wiele przykładów tego typu oszustw. Przestępcy bezprawnie wykorzystali wizerunki i podrobili głosy m.in. prezydenta Andrzeja Dudy, minister zdrowia Izabeli Leszczyny, piłkarza Roberta Lewandowskiego, influencera Kamila Labuddy (Buddy) oraz biznesmena Rafała Brzoski, prezesa InPost.
W nagraniach umieszczanych na Facebooku zastosowano technikę lip-sync, która polega na manipulacji ruchami ust oraz synchronizacji mówionego tekstu z obrazem. Sprawcy w ten sposób tworzyli fałszywe wypowiedzi rzekomych autorytetów, zachęcając do korzystnych, ale w rzeczywistości niebezpiecznych, inwestycji finansowych.
„Technologie umożliwiają obecnie przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu text-to-speech wystarczy im zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z materiałem wideo na przykład z dowolnego przemówienia czy wiecu politycznego” – wyjaśnia Ewelina Bartuzi-Trokielewicz z NASK.
Takie sfabrykowane materiały wideo są szczególnie niebezpieczne, ponieważ mogą wprowadzać w błąd inwestorów, którzy padną ofiarą oszustw. Przestępcy często umieszczają je w szablonie przekazu telewizyjnego, co dodatkowo zwiększa ich wiarygodność w oczach odbiorców.
Jak Rozpoznać Deepfake’i?
Coraz większa wiarygodność deepfake’ów stanowi poważne wyzwanie dla inwestorów. Chociaż w niektórych przypadkach można jeszcze dostrzec błędy lub niespójności w nagraniach, to wraz z rozwojem technologii będzie to coraz trudniejsze.
Eksperci radzą, aby zachować zdrowy rozsądek i krytyczne podejście do treści wideo, zwłaszcza tych, które wydają się niezweryfikowane lub pochodzą z nieznanych źródeł. Należy zwracać uwagę na:
- Niespójności w mimice twarzy – nienaturalne ruchy ust, oczu czy gestów, które mogą sugerować manipulację obrazem.
- Brak synchronizacji dźwięku z ruchami warg – dźwięk może nie pasować do wypowiadanych słów.
- Artefakty lub szumy na nagraniu – przestępcy często stosują tego typu zabiegi, aby zakłócić klarowność przekazu i utrudnić detekcję deepfake’ów.
- Podejrzane źródło materiału – wiarygodne portale są już uwrażliwione na próby manipulacji i często dysponują narzędziami do ich wykrywania.
Ponadto, istnieją ogólnodostępne narzędzia wykorzystujące uczenie maszynowe i analizę obrazu, które mogą pomóc w identyfikowaniu fałszerstw, takie jak DeepWare.ai czy WatchFrameByFrame.com.
Kluczowe jest również zgłaszanie podejrzanych materiałów do odpowiednich instytucji, takich jak CERT Polska czy Dyżurnet.pl. Szybka reakcja może ograniczyć zasięg oszustw i zapobiec dalszym stratom.
Jak Chronić Się Przed Deepfake Oszustwami?
Ochrona przed zagrożeniami związanymi z deepfake’ami wymaga wielopłaszczyznowego podejścia. Konieczna jest współpraca na poziomie międzynarodowym pomiędzy rządami, organizacjami pozarządowymi, firmami technologicznymi i społeczeństwem, aby skutecznie przeciwdziałać temu zjawisku.
Jako inwestor możesz podjąć następujące kroki, aby zmniejszyć ryzyko padnięcia ofiarą deepfake oszustwa:
- Zachowaj czujność i krytyczne podejście do treści wideo, szczególnie tych związanych z inwestycjami lub znanymi osobistościami.
- Zweryfikuj źródło informacji – treści z wiarygodnych, sprawdzonych portali są mniej narażone na manipulacje.
- Skorzystaj z narzędzi do wykrywania deepfake’ów, takich jak wspomniane wcześniej DeepWare.ai czy WatchFrameByFrame.com.
- Zgłaszaj podejrzane materiały do odpowiednich instytucji, takich jak CERT Polska lub Dyżurnet.pl.
- Bądź ostrożny przy podejmowaniu szybkich decyzji inwestycyjnych na podstawie emocjonalnych lub sensacyjnych treści.
- Regularnie aktualizuj swoją wiedzę na temat zagrożeń związanych z deepfake’ami i metod ich identyfikacji.
Zachowanie czujności i racjonalne podejście do inwestowania w czasach powszechnej dezinformacji są kluczowe, aby ustrzec się przed groźnymi konsekwencjami deepfake oszustw. Tylko dzięki ciągłemu podnoszeniu świadomości i współpracy różnych podmiotów możliwe będzie skuteczne przeciwdziałanie tym zagrożeniom.
Pamiętaj, że niezależnie od poziomu zaawansowania technologii, zdrowy rozsądek i krytyczne myślenie pozostają najlepszą bronią inwestora w walce z deepfake oszustwami. Odwiedź stronę stop-oszustom.pl, aby dowiedzieć się więcej o bezpiecznym inwestowaniu.