Deepfakes, wat zijn dat? Deze term staat voor nepfilmpjes die heel echt lijken. Deepfake komt steeds vaker in het nieuws. Het zorgt voor behoorlijk wat risico’s. Makers van deepfakes kunnen iemand uitspraken laten doen die hij/zij nooit heeft gedaan. Er kan zo misbruik van gemaakt worden, denk aan cybercriminelen die mensen met een nep video oplichten. Hoe herken je deepfakes? Download de checklist onderaan deze pagina.

Deepfakes maken

Deepfake is een combinatie van de termen deep en fake. ‘Deep’ staat voor deep learning. Deep learning is een techniek die bij kunstmatige intelligentie hoort. Computers leren hoe een gezicht wordt gemaakt door het analyseren van grote hoeveelheden data, zoals foto’s en video’s. ‘Fake’ staat natuurlijk voor dat de video of audio niet echt is. Hoe maak je deepfakes?

Op het internet is software om deepfakes te maken redelijk makkelijk te vinden. Maar ondanks dat de software makkelijk te krijgen is, is het niet zo simpel om zo’n filmpje te maken. Vooral hackers kunnen er goed mee werken. Voor mensen met weinig verstand van computers zal het dus niet makkelijk zijn om een deepfake video te maken. De ontwikkeling van deze techniek gaat trouwens snel, het kan zijn dat zulke video’s over een paar jaar niet meer van de realiteit zijn te onderscheiden. Het wordt ook makkelijk om aan goede beelden te komen, en sommige telefoons hebben zelf een 3D camera. 

Verschillende deepfakes

Deepfakes kunnen in verschillende vormen voorkomen:

  • Face swap: Een gezicht wordt op het gezicht van iemand anders geplakt. Mensen die Snapchat gebruiken zijn al bekend met face swap. Via Snapchat is nog te herkennen dat het nep is, maar stel je voor dat dit met betere software in elkaar wordt gezet.
  • Face sync: Face sync is het synchroniseren van iemands gezicht. De maker kan de dingen die hij met zijn gezicht doet ook door een ander te laten doen. Zo kan hij iemand allerlei dingen laten zeggen. Er wordt vaak misbruik gemaakt van face sync.
  • GAN-netwerken: Deze vorm kan gebruikt worden bij het maken van een neppaspoort. Het systeem leert hoe een gezicht eruit ziet, hierdoor creëert het kunstmatige gezichten.

Kijk eens op de volgende website: https://thispersondoesnotexist.com/. Er wordt een afbeeldingen van een niet bestaand persoon gegenereerd. Bij het vernieuwen van de pagina komt er steeds een nieuw persoon tevoorschijn. Dit is mogelijk dankzij AI. Er is ook een soortgelijke website voor kunstwerken: https://thisartworkdoesnotexist.com/ Dit soort technologieën zorgen voor risico’s. Een cybercimineel heeft zo toegang tot foto’s van niet bestaande mensen, dit is voor hem een voordeel omdat niemand een niet bestaand persoon kan traceren.  

De risico’s van deepfakes

Kunnen we nog alles geloven wat we zien? Hoe weten we straks nog wat echt of nep is? Het risico bestaat dan dat we niet meer kunnen vertrouwen op feiten. Met deepfakes kan iemand politici en beroemdheden alles laten zeggen of doen. Mensen gaan dingen geloven die niet waar zijn.

Deepfake lijkt nu te worden wat Adobe Photoshop vroeger was. Toen Photoshop nog maar net was uitgebracht was iedereen verbaasd. Foto’s konden nu bewerkt worden voor allerlei doeleinden. Digitale manipulatie ontwikkelt zich nu verder door deepfake. Moeten we deepfake als een groot risico zien? Het is belangrijk om te beseffen dat elke nieuwe technologie als een dreiging wordt gezien. Met de komst van de televisie dacht men vroeger ook dat dit de perceptie van de waarheid zou beïnvloeden. In het huidige medialandschap hebben veel mensen al geleerd om niet alles meteen te vertrouwen. Kunnen we ervan uitgaan dat mensen net als met Photoshop, ook bij deepfake nadenken over de betrouwbaarheid? En we beoordelen teksten ook kritisch, door naar de bron te kijken, dus video’s moeten we eigenlijk net zo kritisch als teksten beoordelen.   

Deepfake kan ook voordelen hebben, bijvoorbeeld voor de filmindustrie. Zo kan iemand een aantal talking head video’s opnemen, vervolgens kunnen daar hoofden van acteurs overheen gezet worden. In de toekomst kan het zelfs mogelijk zijn dat we nieuwe films gaan zien met overleden acteurs. Of men dat wel wil is de vraag, maar het is wel bizar dat het in de toekomst mogelijk gaat zijn. Deepfake kan ook gebruikt worden om een videoboodschap in meerdere talen uit te laten spreken, dit kan bijvoorbeeld nuttig zijn voor goede doelen. 

 

Bron: Avg, Mediawijzer, Opgelicht.avrotros, (foto) Unsplash

Gepubliceerd in Risicomanagement