Ekspertka ostrzega: „deepfake’i” zagrożeniem dla rynków finansowych

Ekspertka ostrzega: „deepfake’i” zagrożeniem dla rynków finansowych

Sztuczna inteligencja (AI) wkracza coraz głębiej w sferę inwestycji giełdowych, ale jej zastosowanie niesie ze sobą poważne zagrożenia – takie jak możliwość manipulacji informacjami za pomocą technologii „deepfake’ów”. Ekspertka ostrzega, że trwają wyścigi między twórcami tej groźnej technologii a regulatorami, próbującymi ją okiełznać.

Deepfake’i – nowe ryzyko dla uczciwości rynków

Profesor Aleksandra Przegalińska, badaczka sztucznej inteligencji z Akademii Leona Koźmińskiego, wskazuje, że jednym z głównych zagrożeń związanych z wykorzystywaniem AI na rynkach finansowych są deepfake’i – technika tworzenia realistycznych, ale fałszywych obrazów, filmów lub nagrań dźwiękowych. Według Przegalińskiej, deepfake’i mogą stanowić poważne wyzwanie dla uczciwości i przejrzystości rynków finansowych.

„Modele generatywnej AI, takie jak ChatGPT, mogą halucynować i tworzyć całkowicie zmyślone dane, które następnie będą użyte do prognozowania zachowań na rynkach” – wyjaśnia ekspertka. Oznacza to, że inwestorzy mogą być wprowadzani w błąd przez fałszywe informacje, co może prowadzić do nieuzasadnionych spekulacji i gwałtownych wahań cen.

Potwierdzają to doniesienia o tym, że premier Włoch Georgia Meloni sama padła ofiarą deepfakeizacji, gdy jej wizerunek trafił do pornograficznego filmu. Takie manipulacje wizerunkowe mogą mieć poważne konsekwencje również na rynkach finansowych.

Walka regulatorów z deepfake’ami

Aby przeciwdziałać tym zagrożeniom, Unia Europejska wprowadza AI Act – jedną z pierwszych na świecie kompleksowych regulacji dotyczących sztucznej inteligencji. Zgodnie z tymi przepisami, wykorzystywanie AI do rozpoznawania twarzy w przestrzeni publicznej będzie w Europie całkowicie zakazane. Regulacja ma także na celu zwiększenie przejrzystości i kontroli nad systemami AI wykorzystywanymi m.in. w sektorze finansowym.

Przegalińska zauważa, że poza unijną legislacją również inne kraje podejmują kroki w celu uregulowania kwestii deepfake’ów. Przykładowo Włochy, jeszcze przed wejściem w życie AI Act, wprowadziły własne przepisy mające na celu walkę z tą technologią. Podobne działania obserwujemy też w Kanadzie czy Stanach Zjednoczonych, gdzie prezydent Biden wydał dekret w tej sprawie.

Ekspertka podkreśla jednak, że walka z deepfake’ami wciąż trwa, a regulatorzy znajdują się w wyścigu z twórcami tej groźnej technologii. Dlatego kluczowe jest, aby inwestorzy podchodzili z dużą ostrożnością do prognoz i analiz opartych na sztucznej inteligencji, szczególnie w kontekście rynków finansowych.

Ograniczone zaufanie do AI

Profesor Przegalińska radzi, aby nie ufać bezgranicznie rekomendacjom inwestycyjnym generowanym przez systemy AI. Modele takie jak ChatGPT, choć imponujące, mogą bowiem halucynować i dostarczać kompletnie błędnych informacji.

„Dlatego przestrzegałabym przed takim bezwzględnym zaufaniem do sztucznej inteligencji, zwłaszcza w kontekście najnowszej fali, czyli modeli generatywnych” – ostrzega ekspertka. Jej zdaniem, zamiast polegać wyłącznie na wskazówkach AI, inwestorzy powinni stosować jej porady z dużą rezerwą i weryfikować je przy użyciu wielu źródeł danych.

Co więcej, Przegalińska uważa, że bezpieczeństwo systemów AI opartych na wielu źródłach informacji będzie znacznie wyższe niż w przypadku pojedynczych modeli, które mogą być bardziej podatne na halucynacje i manipulacje. Dlatego też eksperci radzą ostrożność przy ufaniu prognozom i analizom generowanym przez sztuczną inteligencję, szczególnie w kontekście wrażliwych obszarów, takich jak rynki finansowe.

Ciągły rozwój regulacji

Choć obecne regulacje, takie jak unijny AI Act, stanowią krok naprzód w walce z zagrożeniami związanymi z wykorzystywaniem AI, eksperci podkreślają, że będzie to stale ewoluujące pole.

Przegalińska zauważa, że AI Act nie reguluje jeszcze wszystkich aspektów, takich jak kwestie prawno-autorskie, które stają się coraz bardziej problematyczne w kontekście deepfake’ów. Dlatego można się spodziewać, że w najbliższych latach pojawią się kolejne inicjatywy mające na celu doprecyzowanie i rozszerzenie ram prawnych dotyczących sztucznej inteligencji.

Podsumowując, rynki finansowe stają w obliczu nowych wyzwań związanych z rozwojem technologii deepfake’ów, które mogą prowadzić do manipulacji informacjami i nieuzasadnionych spekulacji. Choć regulatorzy podejmują już kroki, aby przeciwdziałać tym zagrożeniom, inwestorzy muszą zachować szczególną ostrożność przy korzystaniu z prognoz i analiz opartych na sztucznej inteligencji. Witryna Stop Oszustom może stanowić cenny zasób informacji na ten temat.

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Scroll to Top