Overslaan en ga naar inhoud

Deze video is nep!

Over de opkomst van deepfake-video’s

Je hebt ze vast wel eens voorbij zien komen: een video van koningin Elizabeth van Groot-Brittannië die een hele rare kersttoespraak hield, of een filmpje van een vriend of vriendin die opeens heel mooi een liedje kan zingen. Beide zijn deepfake-video’s; filmpjes die heel echt lijken, maar hartstikke nep zijn. Ze zijn de laatste tijd erg vaak in het nieuws en steeds makkelijker te maken. Ook door jou.

Wat is een deepfake?

Het woord Deepfake is een samentrekking van de Engelse begrippen ‘deep learning’ en ‘fake’. ‘Deep learning’ is een vorm van kunstmatige intelligentie, software die een lerend vermogen heeft. Bij deepfakes leert de software hoe die een gezicht motorisch (bewegen van hoofd, ogen, mond) steeds geloofwaardiger kan nadoen in video’s. En ‘fake’ is natuurlijk Engels voor nep.

Deepfakes zijn soms leuk...

De techniek van deepfakes is nog niet zo oud, maar ontwikkelt zich heel snel. Dat komt vooral omdat de rekenkracht van computers steeds beter wordt en omdat dankzij het lerende vermogen van kunstmatige intelligentie het imiteren van natuurlijke bewegingen en ook het geloofwaardig synchroniseren van een stem met een mond grote stappen maakt.

En dat levert leuke resultaten op. Bijvoorbeeld met de app WOMBO, waar je een selfie in zet, die je dan kunt laten bewegen en zingen. Vooral leuk als je helemaal niet kunt zingen. 

En wie wil er nou niet in een spannende filmscène meedoen? Daarvoor hoef je nu alleen nog maar je gezicht over die van de hoofdrolspeler te plakken en hop: je speelt in Indiana Jones! Inmiddels kan slimme deepfake-software van één ‘platte’ foto van voren al een heel overtuigend driedimensionaal gezicht maken. Een briljante uitvinding. 

Niet per se leuk, maar wel een bijzondere toepassing: er wordt geëxperimenteerd met deepfakes om ze in te zetten bij rouw- of traumaverwerking. Waarbij een overledene met de nabestaanden zou kunnen praten, onder supervisie van een therapeut natuurlijk. Daarover gaat de documentaire Deepfake Therapy.

...maar niet elke deepfake is tof

Hoe briljant ook, in de handen van kwaadwillenden kan een deepfake best een risico vormen, bijvoorbeeld om kinderen te pesten, door ze in een genânt filmpje te monteren. En daarnaast kunnen ze ons geloof in het nieuws aantasten. Want je kunt bijvoorbeeld door alleen de mond in een video te manipuleren, een wereldleider dingen laten zeggen die hij of zij helemaal niet gezegd heeft. En dat kun je grappig doen, zoals in dit filmpje bij president Obama:

Al zit er hier ook al een waarschuwing in: wat wanneer we als burger het nieuws niet meer geloven, omdat iedereen een deepfake kan maken. Deepfakes zijn desinformatie.

En op dit moment is een deepfake nog het meest geloofwaardig wanneer de stem van een bekend iemand wordt nagedaan (zoals hierboven bij Obama), maar het is een kwestie van tijd totdat ook een computer de stem van iemand perfect kan imiteren. Denk maar eens na: wat kun je dan allemaal horen en te zien krijgen? Spannend, en misschien een beetje eng.

Hoe herken je een deepfake?

Hoe goed de deepfakes inmiddels ook zijn, er zijn nog wel wat zaken waaraan je een deepfake zou kunnen herkennen. Als een video te mooi is om waar te zijn (bijvoorbeeld een politicus die iets heel raars zegt), dan is die doorgaans te mooi om waar te zijn. Check dan bij websites en media die je vertrouwt of ze de video bespreken. 

Iemands gezicht op een ander lichaam plakken (om de eigenaar van het gezicht in een rare situatie te plaatsen) is vaak nog niet perfect:

  • plekjes die onscherp zijn
  • ogen die niet knipperen
  • schaduwen die niet kloppen met de omgeving
  • een mond die niet gelijk loopt met wat er gezegd wordt
  • een gezicht dat niet helemaal gelijk meebeweegt met het hoofd
  • of je hoort dat de stem niet gelijk is aan de bekende persoon in het filmpje

Het zijn allemaal signalen dat er iets mis kan zijn. 

Bedrijven als Twitter, YouTube en Facebook (waar filmpjes niet meer zijn weg te denken) zijn al druk bezig met manieren om deepfakes te voorkomen. Dat doen ze door software te ontwikkelen die ook dankzijn kunstmatige intelligentie steeds beter leert de nepvideo’s te herkennen. Zodat je geen video te zien kunt krijgen van een ‘familielid’ dat vraagt om geld over te maken. 

Hoe nu verder?

De toekomst is moeilijk te voorspellen. De deepfake-techniek blijft zich verbeteren, het zelflerend vermogen van de software ook. Als tegenwicht is er dus ook software in de maak die deepfakes steeds beter leert herkennen. Dat is hoopvol. Het verstandigst blijft dus, zoals zo vaak, om alert te blijven en niet overal zomaar in te geloven.

Verder lezen:

Haal alles uit Ziggo

Meer lezen over wat je allemaal kunt met de producten van Ziggo?