Czy deepfake’i wpłyną na wyniki polskich wyborów?
Tuż przed wyborami polskie media obiegła informacja o fałszywych SMSach i mailach mających szerzyć dezinformację. Eksperci ds. cyberbezpieczeństwa zwracają uwagę, że potencjalnych zagrożeń na ostatniej prostej przed wyborami może być więcej. Coraz głośniej przecież np. o fałszywym nagraniu, wykorzystującym AI i deepfake, które dwa dni przed wyborami na Słowacji mogło mieć wpływ na ich wynik. Dlatego warto zachować czujność i teraz szczególnie uważnie weryfikować informacje.
Wybory na Słowacji
Zaledwie dwa dni przed niedawnymi wyborami na Słowacji, na Facebooku opublikowano nagranie audio, rzekomo przedstawiające rozmowę, w której Michal Šimečka, stojący na czele liberalnej partii Postępowa Słowacja i Monika Tódová z dziennika Denník N. dyskutują o tym, jak sfałszować wybory, m.in. poprzez kupowanie głosów mniejszości romskiej. Šimečka natychmiast poinformował, że nagranie jest fałszywe, a dział sprawdzania faktów agencji informacyjnej AFP stwierdził, że widać w nim oznaki manipulacji przy użyciu sztucznej inteligencji. Trwała jednak cisza wyborcza, a fałszywy post z nagraniem audio sprytnie obszedł politykę Meta, dotyczącą manipulacji mediami, która koncentruje się na nagraniach wideo. Temat trudno było zatem sprostować. Obecnie trwa dyskusja o tym, na ile wydarzenie to mogło wpłynąć na wynik wyborów.
Bądźcie czujni
Eksperci ds. cyberbezpieczeństwa zwracają uwagę, że w mediach społecznościowych, m.in. na TikToku, także pojawiają się w ostatnim czasie materiały z fałszywymi wypowiedziami polskich polityków. Zwykle mają one formę żartu lub nie są na tyle dopracowane technicznie, aby uchodzić za autentyczne, ale część mniej świadomych odbiorców może je przecież tak interpretować. Dlatego bezpośrednio przed wyborami warto zachować szczególną czujność i weryfikować informacje.
– Nowe, szybko rozwijające się technologie oparte o AI umożliwiają praktycznie każdemu tworzenie fałszywych treści, które mogą zawierać wizerunek nieświadomych użytkowników. Cyberprzestępcy mogą wykorzystywać je nie tylko do nękania i szantażowania swoich ofiar. Nielegalnie bywa też wykorzystywany wizerunek znanych osób: polityków czy celebrytów. Szczególnie niebezpiecznym aspektem jest to, że narzędzia pozwalające na tworzenie nagrań tego typu są bardzo łatwo dostępne i nie wymagają zaawansowanych umiejętności technologicznych. Może więc sięgać po nie coraz więcej osób, zarówno takich, które chcą je wykorzystać do niecnych celów (szerzenia nieprawdy, szantażu, podsycania niepokojów, destabilizacji), jak i takich, które mylnie uważają, że będzie to dobry żart. Intencje czasem trudno odróżnić, a skutki – mogą niestety być przeróżne – wyjaśnia Kamil Sadkowski, analityk laboratorium antywirusowego ESET.
Deepfake
Technologia Deepfake posługuje się sieciami neuronowymi, umożliwiając użytkownikom, m.in. generowanie filmów lub nagrań dźwiękowych wykorzystujących wizerunek istniejących osób. Źródłem mogą być, m.in. istniejące materiały audio i wideo, które zostają przetworzone przez odpowiednie algorytmy. W wyniku tych procesów można np. podmienić twarz osoby występującej w oryginalnym materiale na twarz kogoś innego z zachowaniem mimiki i ruchów z pierwotnego filmu lub sklonować głos i zadać mu dowolny tekst do przeczytania.
mat.prasowy/red. Skarżyńska