Het grote verschil met eerdere technieken op dat gebied is dat de techniek van de onderzoekers in Stanford, gezichtsuitdrukkingen van mensen in bestaande video's real-time kan manipuleren met enkel een webcam.

De onderzoekers hebben een paper gepubliceerd waarin zij haarfijn uitleggen hoe zij het voor elkaar hebben gekregen. Door een 3d-model van het gezicht in de bronvideo te renderen en dat model real-time te manipuleren op basis van de gezichtsuitdrukkingen van de acteur kan er in combinatie met goedkope apparatuur een video worden gegenereerd die precies dezelfde gezichtsuitdrukkingen heeft als die van de acteur.

De onderzoekers hebben een video gepubliceerd waarin zij laten zien hoe de techniek werkt. Daarnaast wordt deze nieuwe techniek ook vergeleken met bestaande technieken. Een van de lastigste dingen om voor elkaar te krijgen is het renderen van de mond. Het weergeven van de tong en tanden is een zware klus. Sommige technieken renderen zelf een 3d-model van het gebit waardoor het een en ander wat kunstmatig kan overkomen. De Face2Face-techniek gebruikt zoveel mogelijk bestaande beelden uit de video op een zo realistisch mogelijk gebit te genereren.

In de video wordt onder andere gedemonstreerd hoe Donald Trump en Vladimir Putin worden gemanipuleerd om gezichtsuitdrukkingen te maken die zij normaal gesproken niet zo snel zouden maken als er een camera op hun zou zijn gericht.

Het pakket is op dit moment niets meer dan een experiment en er zijn (nog) geen plannen de techniek te verkopen. Maar het is wel een mooie indicatie van wat er in de (nabije) toekomst allemaal mogelijk gaat zijn. De techniek zou bijvoorbeeld gebruikt kunnen worden als hulpmiddel bij vertalingen, maar het geeft ook aan hoe weinig vertrouwen je nog kan hechten aan de echtheid van video's.