Onlangs heeft Reddit weer nieuws gemaakt met een subreddit waarin mensen een machine learning tool genaamd “Deep Fake” gebruiken om automatisch iemands gezicht te vervangen door een ander in een video. Omdat dit internet is, gebruiken mensen het natuurlijk voor twee dingen: nepporno van beroemdheden en het invoegen van Nicolas Cage in willekeurige films.
Hoewel het wisselen van iemands gezicht op een foto altijd relatief eenvoudig is geweest, was het wisselen van iemands gezicht in een video vroeger tijdrovend en moeilijk. Tot nu toe werd het voornamelijk alleen gedaan door VFX-studio’s voor Hollywood-films met een groot budget, waarbij het gezicht van een acteur wordt verwisseld voor hun stuntdubbel. Maar nu, met Deep Fake, kan iedereen met een computer dit snel en automatisch doen.
Voordat je verder gaat, moet je weten hoe een Deep Fake eruitziet. Bekijk de SFW-video hieronder die een compilatie is van verschillende face-swaps van beroemdheden, voornamelijk met Nic Cage.
De Deep Fake-software werkt met machine learning. Het wordt eerst getraind met een doelwit. Vervormde beelden van het doel worden door het algoritme geleid en het leert hoe ze te corrigeren om op het ongewijzigde doelvlak te lijken. Wanneer het algoritme vervolgens afbeeldingen van een andere persoon ontvangt, gaat het ervan uit dat het vervormde afbeeldingen van het doelwit zijn en probeert het deze te corrigeren. Om video te krijgen, werkt de Deep Fake-software op elk frame afzonderlijk.
De reden dat Deep Fakes grotendeels alleen acteurs heeft betrokken, is dat er veel beelden van hen beschikbaar zijn vanuit verschillende invalshoeken, wat de training effectiever maakt (Nicolas Cage heeft 91 acteercredits op IMDB). Maar gezien het aantal foto’s en video’s dat mensen online posten en je eigenlijk maar ongeveer 500 afbeeldingen nodig hebt om het algoritme te trainen, is er geen reden waarom gewone mensen ook niet het doelwit kunnen zijn, hoewel waarschijnlijk met iets minder succes.
Hoe herken je een diepe nep
Op dit moment zijn diepe vervalsingen vrij gemakkelijk te herkennen, maar het wordt moeilijker naarmate de technologie beter wordt. Hier zijn enkele van de weggeefacties.
Raar uitziende gezichten. In veel Deep Fakes zien de gezichten er gewoon raar uit. De functies komen niet perfect overeen en alles lijkt een beetje wasachtig, zoals in de onderstaande afbeelding. Als al het andere er normaal uitziet, maar het gezicht er raar uitziet, is het waarschijnlijk een Deep Fake.
Flikkerend. Een veelvoorkomend kenmerk van slechte Deep Fake-video’s is dat het gezicht lijkt te flikkeren en dat de originele kenmerken af ​​en toe in beeld komen. Het is normaal gesproken duidelijker aan de randen van het gezicht of wanneer iets ervoor passeert. Als er rare flikkeringen optreden, kijk je naar een Deep Fake.
Verschillende lichamen. Deep Fakes zijn alleen face-swaps. De meeste mensen proberen een goede match te krijgen, maar dat is niet altijd mogelijk. Als de persoon merkbaar zwaarder, lichter, groter, korter lijkt of tatoeages heeft die ze in het echte leven niet hebben (of geen tatoeages heeft die ze in het echte leven wel hebben), is de kans groot dat het nep is. Je kunt hieronder een heel duidelijk voorbeeld zien, waar het gezicht van Patrick Stewart is verwisseld met JK Simmons in een scène uit de film Whiplash. Simmons is aanzienlijk kleiner dan Stewart, dus het ziet er gewoon vreemd uit.
Korte clips. Op dit moment, zelfs als de Deep Fake-software perfect werkt en een bijna niet te onderscheiden face-swap creëert, kan het dit slechts voor een korte tijd echt doen. Binnenkort zal een van de bovenstaande problemen optreden. Daarom zijn de meeste Deep Fake-clips die mensen delen maar een paar seconden lang, de rest van de beelden is onbruikbaar. Als je een heel korte clip te zien krijgt van een beroemdheid die iets doet, en er is geen goede reden waarom het zo kort is, is het een aanwijzing dat het een Deep Fake is.
Geen geluid of slechte lipsynchronisatie. De Deep Fake-software past alleen gelaatstrekken aan; het laat niet op magische wijze de ene persoon klinken als de andere. Als er geen geluid is met de clip, en er is geen reden waarom ze niet goed zijn, is het een andere aanwijzing dat je naar een Deep Fake kijkt. Evenzo, zelfs als er geluid is, als de gesproken woorden niet correct overeenkomen met de bewegende lippen (of als de lippen er vreemd uitzien terwijl de persoon praat zoals in de onderstaande clip), heb je misschien een diepe nep.
Ongelooflijke clips. Dit is vanzelfsprekend, maar als je een echt ongelooflijke clip wordt getoond, is de kans groot dat je het niet echt moet geloven. Nicolas Cage heeft nog nooit de hoofdrol gespeeld als Loki in een Marvel-film. Dat zou echter cool zijn.
Dubieuze bronnen. Zoals bij nepfoto’s, waar de video zogenaamd vandaan komt, is vaak een grote aanwijzing voor de authenticiteit ervan. Als de New York Times er een verhaal over vertelt, is het veel waarschijnlijker dat iets dat je ontdekt in een willekeurige hoek van Reddit.
Voorlopig zijn Deep Fakes meer een gruwelijke nieuwsgierigheid dan een groot probleem. De resultaten zijn gemakkelijk te herkennen, en hoewel het onmogelijk is om goed te keuren wat er wordt gedaan, probeert nog niemand Deep Fakes door te geven als echte video’s.
Naarmate de technologie echter beter wordt, wordt het waarschijnlijk een veel groter probleem. Overtuigende nepbeelden van Kim Jong Un die de VS de oorlog verklaart, kunnen bijvoorbeeld voor grote paniek zorgen.