Deepfake: jakie zagrożenia niesie manipulacja obrazem?
2022-02-01, 13:02 | aktualizacja 2022-02-02, 14:02
Deepfake to w uproszczeniu technika obróbki obrazu przy użyciu komputerowych systemów uczących się. W ten sposób uzyskuje się łudząco realistyczne obrazy bądź filmy, w których np. następuje niemożliwa do wykrycia przez widza zamiana twarzy aktorów. W ten sposób można właściwie dowolną osobę "obsadzić" np. w kompromitującym filmie.
- Słowo deepfake pochodzi od zbitki wyrazów "deep learning" (ang. głębokie uczenie) oraz "fake" (ang. fałszywy).
- Pierwsze deepfake'i pojawiły się pod koniec 2017 roku. Były to filmy porno z wykorzystaniem wizerunków m.in. Gal Gadot, Maisie Williams i Taylor Swift.
- Na początku 2019 roku w internecie zaprezentowano 7964 filmów deepfake, pod koniec – już 14678.
- Od połowy 2019 roku powstają na świecie różne programy, których zadaniem jest badanie techniki deepfake, walka z zagrożeniami, które niesie (dezinformacja, chaos informacyjny, manipulacja, działania przestępcze) oraz opracowanie systemu rozpoznawania deepfake'ów.
"Głębokie uczenie" a fałszowanie kont
– Deepfake to materiały audio, wideo, także pojedyncze obrazy, które są wygenerowane bądź zmodyfikowane z wykorzystaniem nowoczesnych metod obliczeniowych, tzw. inteligencji obliczeniowej lub uczenia maszynowego – tłumaczy prof. inż. Michał Bereta z Zakładu Inteligencji Obliczeniowej na Wydziale Fizyki, Matematyki i Informatyki Politechniki Krakowskiej. – Nazwa bierze się od angielskiego terminu "deep learning", uczenie głębokie. Są to rozbudowane sieci neuronowe, które są w stanie uczyć się bardzo różnych rzeczy, m.in. generować nowe materiały, modyfikować istniejące materiały tak, żeby dla ludzkiego oka były prawie nie do rozróżnienia – wskazuje.
– Wygląda to w ten sposób, że możemy taką sieć neuronową uczyć poprzez pokazywanie jej twarzy bardzo wielu ludzi, a później poprosić, aby wygenerowała obraz podobny, ale nowy. Czyli mamy do czynienia ze zdjęciem osoby, która nigdy nie istniała. Można ich użyć np. do uwiarygodniania fałszywych kont w mediach społecznościowych. W ten sposób można podmienić twarz osoby w całym filmie, żeby cała mimika była naturalna – wyjaśnia Trójkowy gość. – To jest ciemna strona tej technologii, że można jej użyć do przygotowywania kompromitujących materiałów. Tego typu filmiki krążą w internecie – dodaje.
Przeczytaj także
- Czy jesteśmy na podsłuchu? Zagrożenia płynące z nowych technologii
- Komputery kwantowe. Teraźniejszość czy wciąż przyszłość?
- Sztuczna inteligencja przeciw człowiekowi? System "zwolnił" 150 pracowników
Poważne zagrożenie manipulacją
Tego typu filmy stwarzają potężną i bardzo niebezpieczną możliwość manipulacji. A nawet jeszcze więcej. – Ja bym wskazał na dwa zagrożenia. Pierwsze: ktoś przygotowuje materiał kompromitujący kandydata w wyborach i go upublicznia 24 godziny przed wyborami. Pytanie, do kogo dotrze filmik i do kogo dotrze zdementowanie, że ten filmik nie jest prawdziwy? – tłumaczy prof. Bereta. – Drugie: można sobie wyobrazić taką sytuację, że kiedy zostaną ujawnione prawdziwe materiały kompromitujące, ich bohater będzie się wypierał i twierdził, że... to jest deepfake! Czyli sytuacja, że złapaliśmy złodzieja za rękę, a on mówi "to nie moja ręka!".
deepfake o deepfake/YouTube emce□
Posłuchaj
***
Tytuł audycji: Trójka do trzeciej
Prowadzi: Mateusz Drozda
Gość: prof. inż. Michał Bereta (Zakład Inteligencji Obliczeniowej na Wydziale Fizyki, Matematyki i Informatyki Politechniki Krakowskiej)
Data emisji: 1.02.2022
Godzina emisji: 13.29
pr