Op het internet is software om deepfakes te maken redelijk makkelijk te vinden. Maar ondanks dat de software makkelijk te krijgen is, is het niet zo simpel om zo’n filmpje te maken. Vooral hackers kunnen er goed mee werken. Voor mensen met weinig verstand van computers zal het dus niet makkelijk zijn om een deepfake video te maken. De ontwikkeling van deze techniek gaat trouwens snel, het kan zijn dat zulke video’s over een paar jaar niet meer van de realiteit zijn te onderscheiden. Het wordt ook makkelijk om aan goede beelden te komen, en sommige telefoons hebben zelf een 3D camera.
Verschillende deepfakes
Deepfakes kunnen in verschillende vormen voorkomen:
- Face swap: Een gezicht wordt op het gezicht van iemand anders geplakt. Mensen die Snapchat gebruiken zijn al bekend met face swap. Via Snapchat is nog te herkennen dat het nep is, maar stel je voor dat dit met betere software in elkaar wordt gezet.
- Face sync: Face sync is het synchroniseren van iemands gezicht. De maker kan de dingen die hij met zijn gezicht doet ook door een ander te laten doen. Zo kan hij iemand allerlei dingen laten zeggen. Er wordt vaak misbruik gemaakt van face sync.
- GAN-netwerken: Deze vorm kan gebruikt worden bij het maken van een neppaspoort. Het systeem leert hoe een gezicht eruit ziet, hierdoor creëert het kunstmatige gezichten.
Kijk eens op de volgende website: https://thispersondoesnotexist.com/. Er wordt een afbeeldingen van een niet bestaand persoon gegenereerd. Bij het vernieuwen van de pagina komt er steeds een nieuw persoon tevoorschijn. Dit is mogelijk dankzij AI. Er is ook een soortgelijke website voor kunstwerken: https://thisartworkdoesnotexist.com/ Dit soort technologieën zorgen voor risico’s. Een cybercimineel heeft zo toegang tot foto’s van niet bestaande mensen, dit is voor hem een voordeel omdat niemand een niet bestaand persoon kan traceren.
De risico’s van deepfakes
Kunnen we nog alles geloven wat we zien? Hoe weten we straks nog wat echt of nep is? Het risico bestaat dan dat we niet meer kunnen vertrouwen op feiten. Met deepfakes kan iemand politici en beroemdheden alles laten zeggen of doen. Mensen gaan dingen geloven die niet waar zijn.
Deepfake lijkt nu te worden wat Adobe Photoshop vroeger was. Toen Photoshop nog maar net was uitgebracht was iedereen verbaasd. Foto’s konden nu bewerkt worden voor allerlei doeleinden. Digitale manipulatie ontwikkelt zich nu verder door deepfake. Moeten we deepfake als een groot risico zien? Het is belangrijk om te beseffen dat elke nieuwe technologie als een dreiging wordt gezien. Met de komst van de televisie dacht men vroeger ook dat dit de perceptie van de waarheid zou beïnvloeden. In het huidige medialandschap hebben veel mensen al geleerd om niet alles meteen te vertrouwen. Kunnen we ervan uitgaan dat mensen net als met Photoshop, ook bij deepfake nadenken over de betrouwbaarheid? En we beoordelen teksten ook kritisch, door naar de bron te kijken, dus video’s moeten we eigenlijk net zo kritisch als teksten beoordelen.
Deepfake kan ook voordelen hebben, bijvoorbeeld voor de filmindustrie. Zo kan iemand een aantal talking head video’s opnemen, vervolgens kunnen daar hoofden van acteurs overheen gezet worden. In de toekomst kan het zelfs mogelijk zijn dat we nieuwe films gaan zien met overleden acteurs. Of men dat wel wil is de vraag, maar het is wel bizar dat het in de toekomst mogelijk gaat zijn. Deepfake kan ook gebruikt worden om een videoboodschap in meerdere talen uit te laten spreken, dit kan bijvoorbeeld nuttig zijn voor goede doelen.
Deepfakes herkennen
Gaan we valse risico's zien als we misleid worden door deepfakes? Wil je weten hoe je deepfakes herkent? Download dan de bijlage hieronder.
Bron: Avg, Mediawijzer, Opgelicht.avrotros, (foto) Unsplash
Download bijlagen
Je moet lid zijn van Riskworld om bijlagen te downloaden. Wordt gratis lid of log in.