Deepfake staje się coraz trudniejszy do wykrycia. Naukowcy z uniwersytetu w San Diego udowodnili, że algorytmy wykrywające fałszywe nagrania można łatwo oszukać.
Deepfake to technika nakładania nieruchomych obrazów na film. Najczęściej wykorzystywana jest do tworzenia łudząco prawdziwych filmów z wykorzystaniem twarzy znanych osób. Czasami prowadzi to do całkiem zabawnych parodii – jak na przykład John Snow przepraszający za tragiczne zakończenie Gry o Tron. Niestety, może być stosowana też do znacznie gorszych celów.
Pierwsze użycie deepfake polegało niestety na wklejaniu twarzy popularnych aktorek do filmów dla dorosłych. Działanie takie może skompromitować niewinne osoby i nawet zniszczyć ich karierę. Dodatkowo, popularne są przeróbki z politykami – te z kolei mogą nieuczciwie wpływać na wyniki wyborów poprzez dyskredytację kontrkandydatów.
Jak wykryć deepfake’a?
Aby zapobiegać tego typu zagrożeniom, stworzono liczne oprogramowania, pozwalające ustalić czy dany film jest stworzony przy pomocy technologii deepfake. Fałszywki cały czas nie radzą sobie z pewnymi aspektami wideo, takimi jak chociażby mruganie czy ruchy konturów twarzy.
Dokładnie te luki wykorzystują wykrywacze deepfake’ów. Na podstawie analizy oczu postaci na filmie są one w stanie wykryć fałszywkę z dokładnością nawet do 99%.
Zespół z uniwersytetu w San Diego zdołał jednak złamać algorytmy wykrywacza. Stworzyli oni wideo deepfake zawierające zmodyfikowane klatki, które nawet w przypadku dekompresji całego filmu wykrywacz uzna za prawdziwe.
Oczywiście, cel badania był czysto akademicki, a zatem cały kod źródłowy opublikowano w domenie publicznej. Twórcy algorytmów do wykrywanie deepfake’ów z pewnością załatali już wykorzystywane w badaniu błędy.
Zobacz też:
Życzenia królowej Elżbiety II jako oszustwo deepfake. Zobacz film
Jak cenzura wpływa na sztuczną inteligencje?
Kopią kryptowalutę i powodują przerwy w dostawie prądu