Deepfake: jakie zagrożenia niesie manipulacja obrazem?

  • Facebook
  • Twitter
  • Wykop
  • Mail
Deepfake: jakie zagrożenia niesie manipulacja obrazem?
Deepfake może stanowić bardzo duże zagrożenieFoto: Shutterstock

Deepfake to w uproszczeniu technika obróbki obrazu przy użyciu komputerowych systemów uczących się. W ten sposób uzyskuje się łudząco realistyczne obrazy bądź filmy, w których np. następuje niemożliwa do wykrycia przez widza zamiana twarzy aktorów. W ten sposób można właściwie dowolną osobę "obsadzić" np. w kompromitującym filmie.

  • Słowo deepfake pochodzi od zbitki wyrazów "deep learning" (ang. głębokie uczenie) oraz "fake" (ang. fałszywy).
  • Pierwsze deepfake'i pojawiły się pod koniec 2017 roku. Były to filmy porno z wykorzystaniem wizerunków m.in. Gal Gadot, Maisie Williams i Taylor Swift.
  • Na początku 2019 roku w internecie zaprezentowano 7964 filmów deepfake, pod koniec – już 14678.
  • Od połowy 2019 roku powstają na świecie różne programy, których zadaniem jest badanie techniki deepfake, walka z zagrożeniami, które niesie (dezinformacja, chaos informacyjny, manipulacja, działania przestępcze) oraz opracowanie systemu rozpoznawania deepfake'ów.

"Głębokie uczenie" a fałszowanie kont

– Deepfake to materiały audio, wideo, także pojedyncze obrazy, które są wygenerowane bądź zmodyfikowane z wykorzystaniem nowoczesnych metod obliczeniowych, tzw. inteligencji obliczeniowej lub uczenia maszynowego – tłumaczy prof. inż. Michał Bereta z Zakładu Inteligencji Obliczeniowej na Wydziale Fizyki, Matematyki i Informatyki Politechniki Krakowskiej. – Nazwa bierze się od angielskiego terminu "deep learning", uczenie głębokie. Są to rozbudowane sieci neuronowe, które są w stanie uczyć się bardzo różnych rzeczy, m.in. generować nowe materiały, modyfikować istniejące materiały tak, żeby dla ludzkiego oka były prawie nie do rozróżnienia – wskazuje.

– Wygląda to w ten sposób, że możemy taką sieć neuronową uczyć poprzez pokazywanie jej twarzy bardzo wielu ludzi, a później poprosić, aby wygenerowała obraz podobny, ale nowy. Czyli mamy do czynienia ze zdjęciem osoby, która nigdy nie istniała. Można ich użyć np. do uwiarygodniania fałszywych kont w mediach społecznościowych. W ten sposób można podmienić twarz osoby w całym filmie, żeby cała mimika była naturalna – wyjaśnia Trójkowy gość. – To jest ciemna strona tej technologii, że można jej użyć do przygotowywania kompromitujących materiałów. Tego typu filmiki krążą w internecie – dodaje.

Przeczytaj także


Poważne zagrożenie manipulacją

Tego typu filmy stwarzają potężną i bardzo niebezpieczną możliwość manipulacji. A nawet jeszcze więcej. – Ja bym wskazał na dwa zagrożenia. Pierwsze: ktoś przygotowuje materiał kompromitujący kandydata w wyborach i go upublicznia 24 godziny przed wyborami. Pytanie, do kogo dotrze filmik i do kogo dotrze zdementowanie, że ten filmik nie jest prawdziwy? – tłumaczy prof. Bereta. – Drugie: można sobie wyobrazić taką sytuację, że kiedy zostaną ujawnione prawdziwe materiały kompromitujące, ich bohater będzie się wypierał i twierdził, że... to jest deepfake! Czyli sytuacja, że złapaliśmy złodzieja za rękę, a on mówi "to nie moja ręka!".

deepfake o deepfake/YouTube emce□


Posłuchaj

7:43
Deepfake: co to jest? (Trójka do trzeciej)
+
Dodaj do playlisty
+

***

Tytuł audycji: Trójka do trzeciej
Prowadzi: Mateusz Drozda
Gość: prof. inż. Michał Bereta (Zakład Inteligencji Obliczeniowej na Wydziale Fizyki, Matematyki i Informatyki Politechniki Krakowskiej)
Data emisji: 1.02.2022
Godzina emisji: 13.29

pr

Polecane