De term deepfake klinkt misschien nog vreemd voor sommige mensen. Als HEALMates ooit een foto of video van een bekend persoon hebben gezien waarin iets vreemds of ongeloofwaardigs wordt gezegd, dan is de kans groot dat HEALMates naar een deepfake-foto of -video kijken.
Met de ontwikkeling van digitale technologie worden deepfake-inhoud steeds realistischer, waardoor het moeilijker wordt om ze van echt te onderscheiden. Vroeger konden we gemakkelijk zien of een foto of video echt of bewerkt was. Tegenwoordig is dat veel moeilijker, zo echt lijken ze. Zelfs de gezichtsuitdrukkingen zijn heel smooth, de lippen en stemmen zijn perfect gesynchroniseerd, en de belichtingseffecten zijn extreem realistisch. Alles wordt zo gemaakt dat we het geloven. Best eng, toch, HEALMates? Zeker als zulke content wordt misbruikt voor ongewenste doeleinden.
Zodat HEALMates niet in de war raken over wat deepfake eigenlijk is en wat de risico’s zijn, laten we het samen bespreken in het volgende artikel.
Wat is een Deepfake?
Simpel gezegd verwijst deepfake naar inhoud (foto, video of audio) die is gemaakt of aangepast met AI-algoritmen zodat het er zeer realistisch uitziet. De trend van realistische deepfakes is dus niet alleen voor de grap of technische experimenten. Deze trend is ook al doorgedrongen tot manipulatie van meningen, digitale oplichting, valse politieke inhoud en zelfs schending van privacy en reputatie.
Volgens gegevens van vida.id steeg het aantal deepfake-fraudegevallen in Indonesië met maar liefst 1.550% tussen 2022 en 2023. Een recent voorbeeld is de schokkende deepfakevideo van voormalig minister van Financiën Sri Mulyani in augustus 2025. In die video zei Sri Mulyani “Leraren zijn een last voor de staat”. Deze uitspraak zou zijn gedaan tijdens het Forum voor Wetenschap, Technologie en Industrie in Indonesië aan het Institut Teknologi Bandung (ITB) op 7 augustus. Maar het hoofd van het Bureau voor Communicatie en Informatiediensten van het ministerie van Financiën, Deni Surjantoro, ontkende de echtheid van de video en zei dat de uitspraak afkomstig was uit een onvolledig fragment van de originele opname. De bewering dat Sri Mulyani leraren een last noemde, is een hoax. Ze benadrukte zelf via haar sociale mediakanalen dat de video nep is.
“Het fragment van de video waarin het lijkt alsof ik zeg dat leraren een last voor de staat zijn, is een HOAX. In werkelijkheid heb ik dat nooit gezegd. De video is een deepfake en een onvolledig deel van mijn toespraak tijdens het Forum voor Wetenschap, Technologie en Industrie aan het ITB op 7 augustus,” aldus haar persoonlijke Instagram @smindrawati op 19 augustus 2025.
Naast dit geval zijn er ook al veel andere deepfake-incidenten met publieke figuren en beroemdheden. Veel mensen vinden het moeilijk om te zien of een video echt of nep is, omdat het er zo realistisch uitziet.
Risico’s van Deepfake
Deepfakes die zeer realistisch zijn, maken het voor veel mensen moeilijk om ze van echt te onderscheiden. Dit kan het publieke vertrouwen in informatiebronnen ernstig ondermijnen. Vooral als de verspreiding van deepfakes wordt gebruikt om desinformatie te verspreiden voor politieke doeleinden.
Manipulatie van inhoud, zoals foto’s of audio, roept ook ethische vragen op omdat er geen toestemming of goedkeuring is verkregen. Onze gegevens of die van bekende personen kunnen bijvoorbeeld worden gebruikt in pornografische content.
Daarnaast kan deepfake-audio ook worden gebruikt voor fraude. Bijvoorbeeld door stemimitaties van ouders te gebruiken om iemand over te halen geld over te maken, of door stemmen van bedrijfsleiders te klonen om werknemers te misleiden tot het overmaken van fondsen. Dit risico is reëel, omdat nagemaakte stemmen heel overtuigend kunnen klinken. Best eng, toch, HEALMates?
Toch heeft het gebruik van deepfakes ook positieve kanten. Zo kunnen deepfakevideo’s visuele effecten toegankelijker maken voor amateurfilmmakers, of kunnen mensenrechtenactivisten content maken die gezichtsuitdrukkingen behoudt terwijl de identiteit beschermd blijft.
Hoe Deepfake-inhoud te Herkennen
Om te begrijpen hoe je deepfakes kunt opsporen, is het belangrijk eerst te weten hoe ze worden gemaakt. Deepfakes gebruiken meestal Generative Adversarial Networks (GAN’s) of vergelijkbare technieken (autoencoders, variational autoencoders) die “leren” van veel echte beelden/video’s om gezichten, bewegingen of stemmen te reconstrueren.
Kort gezegd probeert het AI-model een nieuw gezicht in te voegen dat past bij het lichaam, de achtergrond, de bewegingen en de originele gezichtsuitdrukkingen. Maar tijdens dat proces kunnen HEALMates bepaalde imperfecties zien. Bijvoorbeeld randen van gezichten die niet symmetrisch zijn, vreemde details aan handen, en andere kleine onvolkomenheden.
Het probleem is echter dat generatieve AI tegenwoordig lipbewegingen, oogexpressies en animaties zo soepel kan combineren dat het bijna niet meer te onderscheiden is van echt. Dit maakt deepfakes steeds moeilijker te detecteren. Detectietools hebben moeite om gelijke tred te houden met de nieuwste AI-methoden.
Een andere manier is om te kijken naar de bron van verspreiding. Deepfakes die voor slechte doeleinden worden gebruikt, worden vaak gedeeld via sociale media-accounts van bots of trollen. Deze accounts zijn te herkennen aan metadata en gedragspatronen. Als het account verdacht of nep lijkt, moeten we alert zijn dat de inhoud een deepfake kan zijn.
Dat was de uitleg over deepfakes en de risico’s waar we voor moeten oppassen, HEALMates. Tijdens politieke campagnes kunnen deepfakes bijvoorbeeld worden gebruikt om valse video’s van politici te maken met controversiële uitspraken. Dergelijke inhoud kan leugens verspreiden, verwarring veroorzaken en het vertrouwen van het publiek schaden. Soms leidt het zelfs tot onrust. We moeten dus echt voorzichtiger zijn en de inhoud die we zien beter filteren, HEALMates. (RIW)

