Bij een deepfake wordt een Generative Adverserial Network gebruikt om gezichten van bekende personen op die van anderen te plakken in een video (het generative-stuk). Vervolgens kijkt het algoritme kritisch via een lerend proces of dit een betrouwbare weergave oplevert (het adverserial-stuk). Daarna wordt deze feedback teruggegeven aan de generator om de video te verbeteren. Dit proces wordt net zo lang herhaald tot het tweede ML-algoritme bevindt dat de gegenereerde afbeelding overtuigend is.

Mensen worden door een deepfakes-video gemakkelijker om de tuin geleid dan machines. Dat komt omdat ons brein ons in staat stelt dingen die niet helemaal kloppen in te vullen. Je 'voelt' eerder dat een goed lijkende video niet klopt dan dat je je vinger erop kunt leggen waarom dat zo is. Wetenschappers zetten dan ook een AI in om deepfakes te detecteren.

Dat nieuwe neurale netwerk richt zich op delen van een afbeelding binnen een deepfake. De AI vergelijkt pixels om manipulaties te detecteren en is getraind op zowel echte video's als deepfakes om de verschillen op pixelniveau te kunnen onderscheiden. Bij deepfakes zijn randen vaak gladgestreken om overgangen natuurlijk te laten lijken, maar juist deze actie valt op wanneer je ver inzoomt.

Op deze manier hopen wetenschappers de strijd aan te kunnen binden met AI-gemanipuleerd nepnieuws. Wel merken de onderzoekers tegenover IEEE Spectrum op dat je wel moet oppassen niet te zwaar op zulke anti-AI AI-alogoritmes te gaan leunen: "Een te zeer vertrouwd detectiealgoritme kan om de tuin worden geleid zodat het kan worden gebruikt als wapen voor mensen die valse informatie verspreiden."

Een beroemd voorbeeld van een deepfake waarbij het gezicht van acteur Steve Buscemi op een optreden van actrice Jennifer Lawrence is geplakt: Ook leuk, wellicht: Buscemi te gast bij Stephen Colbert, waarin de deepfake wordt besproken: