Deepfake zagraża wyborom 2024
2024-04-04 10:20
Deepfake zagraża tegorocznym wyborom © fot. mat. prasowe
Powiedzieć, że 2024 rok to rok wyborów, to mało. Już w najbliższym czasie czekają nas wybory do rodzimych samorządów, wybory do Parlamentu Europejskiego, a w listopadzie - wybory prezydenckie w USA. Na tym nie koniec – w tym roku wyborcami będzie niemal 40 proc. populacji naszego globu. Tak ważne wydarzenia tradycyjnie już są pożywką dla wszelkiego rodzaju cyberprzestępców. W czasach intensywnego rozwoju sztucznej inteligencji oraz technologii deepfake zagrożenia wydają się być co najmniej poważne, a dezinformacja w jeszcze większym stopniu niż zwykle jest w stanie wpływać na losy państw.
Przeczytaj także: Czy sztuczna inteligencja może wybrać prezydenta USA?
Z tego tekstu dowiesz się m.in.:
- Czy technologia deepfake może rzeczywiście wywrzeć na wyniki wyborów 2024?
- Ile kosztują usługi deepfake?
- Jak sztuczna inteligencja manipuluje opiniami wyborców?
Czy sztuczna inteligencja może wywrócić wybory? Nie sądzę. Czy może mieć wpływ na wybory 2024? Nie ma wątpliwości, że decyzje wyborców na całym świecie, będą pod wpływem fałszywych wiadomości – Deryck Mitchelson, CSIO w Check Point Software.
Vera Jourova, wiceprzewodnicząca Komisji Europejskiej, podczas ostatniej wizyty w Polsce podkreśliła:
Ważne, byśmy w sposób odpowiedzialny przygotowali się do ochrony przed różnymi zagrożeniami, obcą interwencją, kampaniami dezinformacyjnymi, chociażby ze strony Kremla. Musimy być gotowi na cyberataki. Po raz pierwszy sztuczna inteligencja może być w sposób znaczny wykorzystana do manipulacji preferencjami wyborczymi.
fot. mat. prasowe
Deepfake zagraża tegorocznym wyborom
Deepfake będzie wykorzystywany do tworzenia treści wpływających na opinię publiczną, manipulowanie cenami akcji czy wpływaniem na stosunki dyplomatyczne i międzynarodowe konflikty. Eksperci firmy Check Point ostrzegają - narzędzia te są obecnie łatwo dostępne w Internecie, a ugrupowania cyberprzestępcze będą z nich korzystać również w atakach socjotechnicznych, w celu dostępu do wrażliwych danych.
W tym roku sztuczna inteligencja i deepfake będzie w jeszcze większym stopniu wspierać cyberprzestępców, przyspieszając oraz rozszerzając możliwości narzędzi hakerskich. I to niezależnie od tego, czy chodzi o bardziej opłacalne i szybsze opracowywanie nowych wariantów złośliwego oprogramowania, czy też o wykorzystanie technologii deepfake w atakach phishingowych czy innych próbach podszywania się pod prawdziwe osoby czy podmioty - podkreśla Wojciech Głażewski, dyrektor w firmie Check Point Software Technologies.
W Polsce już w 2020 roku technologia deepfake została wykorzystana do spreparowania fałszywego filmu z udziałem polityka Jarosława Kaczyńskiego, w którym lider PiS, mówiąc własnym głosem, popierał strajk kobiet. Fałszywy film został opublikowany na YouTube. Jak informowała wyborcza.pl, był to niezwykle sprawny montaż albo wyjątkowo niebezpiecznie spreparowane nagranie, czyli tzw. deepfake.
Obawy o negatywne skutki deepfake’ów rosną nie tylko wśród ekspertów, lecz przywódców państw i firm technologicznych. W lutym 2024 roku 20 największych firm technologicznych zawarło w Monachium Porozumienie technologiczne w sprawie zwalczania oszukańczego wykorzystania sztucznej inteligencji w wyborach w 2024 roku, którego celem jest zapobieganie rozpowszechnianiu fałszywych przekazów, zdjęć i filmów tworzonych przy użyciu sztucznej inteligencji podczas wyborów na całym świecie.
Sprzedaż usług Deepfake rośnie skokowo na Telegramie
Analitycy bezpieczeństwa zidentyfikowali ponad 400 kanałów promujących fałszywe usługi w aplikacji Telegram, począwszy od automatycznych botów, które pomagają użytkownikom tworzyć fałszywe filmy, po osoby oferujące tworzenie fałszywych filmów na zamówienie. Według badań przeprowadzonych przez firmę Check Point, na największej platformie internetowej dla programistów - GitHub, zidentyfikowano ponad 3000 repozytoriów technologii deepfake.
W opinii głównego specjalisty ds. cyberbezpieczeństwa w firmie Check Point Software, Odeda Vanunu, nadszedł czas, aby podnieść flagę i powiedzieć, że w wyborach będą miliardy ludzi głosujących, a ponadto istnieje ogromna, fałszywa infrastruktura, która stale się rozwija.
To co jest niepokojące, to brak cyfrowych śladów działania Deepfake. Utrudnia to kontrolę głębokich podróbek za pomocą środków technologicznych, takich jak umieszczanie adresów IP na czarnej liście lub identyfikacja ich podpisów cyfrowych – stwierdził Vanunu.
Hakerskie narzędzia w połączeniu z sieciami botów, fałszywymi kontami i anonimowymi usługami stworzyły „ekosystem oszustwa”. Ceny usług Deepfake wahają się od zaledwie 2 dolarów za film do 100 dolarów za serial, co umożliwia cyberprzestępcom tworzenie fałszywych treści, które mogą zostać wykorzystane do wywarcia wpływu na wybory i destabilizować sytuację polityczną w wybranym kraju.
Ekspert firmy Check Point potwierdził, że możliwe jest wykorzystanie usług sztucznej inteligencji reklamowanych na GitHubie i Telegramie do stworzenia fałszywego wideo ze zdjęcia lub fałszywej ścieżki dźwiękowej z fragmentu czyjegoś głosu. Podobne obawy dotyczące manipulacji wyborami pojawiły się, gdy w lutym OpenAI wypuściło model AI Sora. Okazało się, że oprogramowanie może tworzyć fotorealistyczne filmy na podstawie podpowiedzi tekstowych, dzięki czemu produkcja wysokiej jakości filmów jest niezwykle łatwa.
Przykładem były próby klonowania głosu lidera politycznej partii w wielkiej Brytanii - przywódcy Partii Pracy Keira Starmera, które zostały rozesłane w Wielkiej Brytanii tuż przed konferencją Partii Pracy w październiku 2023 r. Miały one pokazać, jak lider partii znęca się nad personelem i mówi, że nienawidzi Liverpoolu, który był gospodarzem konferencji Partii Pracy.
W styczniu 2024 r. wyborcy w New Hampshire (USA) otrzymali telefony z fałszywym głosem prezydenta Joe Bidena, który miał zniechęcać do głosowania w prawyborach w New Hampshire i zachęcać do pozostania w domu. Eksperci zwracają uwagę, że klonowanie głosu jest tanie, a ceny zaczynają się od 10 dolarów miesięcznie i sięgają kilkuset dolarów miesięcznie w przypadku bardziej zaawansowanych funkcji. Koszt głosu generowanego przez sztuczną inteligencję wynosi zaledwie 0,006 dolara za sekundę.
Deryck Mitchelson, CSIO w Check Point Software i doradca szkockiego rządu ds. bezpieczeństwa cybernetycznego, powiedział, że sztuczna inteligencja będzie coraz częściej wykorzystywana do tworzenia i wysyłania fałszywych wiadomości dostosowanych do profili i osobistych zainteresowań ofiar, uzyskanych z postów w mediach społecznościowych. Sztuczna inteligencja pozwoliłaby osobom próbującym wpłynąć na wybory 2024 pójść dalej, atakując kontakty poszczególnych osób w mediach społecznościowych za pomocą dezinformacji i dezinformacji.
Na zagrożenie takie zwracali uwagę uczestnicy Światowego Forum Ekonomicznego (WEF) w Davos w styczniu br. Eksperci uważają, że za sprawą działań dezinformacyjnych uzasadnione może być twierdzenie, że dany rząd został wybrany w sposób nieuczciwy…
Dla rozwiązania tego tupu sporów problem stanowi skuteczny sposób śledzenia tego typu działań cyberprzestępczych. W opinii Odeda Vanunu, po przesłaniu fałszywki do mediów społecznościowych, takich jak Facebook czy Instagram, platforma otacza ją własnym kodem. Uniemożliwia to inżynierię wsteczną i dekodowanie oryginalnych metadanych, które wskazywałyby na ich pochodzenie i legalność…
Popularność mediów społecznościowych, które przyspieszają obieg fałszywych treści, docierających do milionów użytkowników, stanowi zagrożenia i jest wąskim gardłem z technologicznego punktu widzenia – powiedział Oded Vanunu z Check Point Software.
Przeczytaj także:
Technologia deepfake sterowała wyborami w Polsce?
oprac. : eGospodarka.pl
Więcej na ten temat:
sztuczna inteligencja, AI, deepfake, fake news, wybory, wyniki wyborów, cyberzagrożenia, cyberataki
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)