Zo worden deepfakes gebruikt bij oplichting en dit kun je er tegen doen

Sven Rietkerk
Sven Rietkerk
11 december 2025, 19:04
3 min leestijd

Deepfakes zijn levensechte nepvideo’s en synthetische stemmen die met kunstmatige intelligentie zijn gemaakt. Het klinkt als technologie uit een sci-fi-film, maar het wordt tegenwoordig gebruikt om mensen op te lichten. Niet alleen in het buitenland komt het voor, ook in Nederland waarschuwen de politie en toezichthouders om op te letten met deze manier van oplichting. In dit artikel leg ik uit wat deepfakes precies zijn, hoe criminelen ze inzetten bij identiteitsfraude en wat je zelf kunt doen om je te beschermen.

Lees verder na de advertentie.

Wat is een deepfake?

Een deepfake is een audio- of videobestand waarin iemands gezicht, mondbewegingen of stem worden nagemaakt door kunstmatige intelligentie (AI). Daardoor lijkt het alsof de nagemaakte persoon iets zegt of doet wat in werkelijkheid nooit is gebeurd. Technisch gezien worden hier generatieve modellen voor gebruikt gebruikt die op basis van beeld- en geluidsmateriaal een nieuwe, realistische weergave produceren. Deepfakes variëren van grappige gezichtsruilfilmpjes tot zeer overtuigende nepvideo’s die moeilijk van echt te onderscheiden zijn. De politie en cyberveiligheidsexperts waarschuwen dat het maken van zulke video’s steeds makkelijker en goedkoper wordt. 

Lees verder na de advertentie.

Deepfakes en fraude

Criminelen passen deepfakes op verschillende manieren toe om vertrouwen te winnen en slachtoffers op te lichten. Een aantal voorbeelden van deze manier van oplichten zijn bijvoorbeeld het oplichten van nepmedewerkers die zich voordoen als de directeur. De neppersoon geeft aan dat er facturen betaald moeten worden en probeert via zogenoemd social-engineering het slachtoffer te overtuigen.

Google scam detectie

Een andere optie zijn deepfakes die proberen om verificaties te omzeilen. Overtuigende video’s of geluidsfragmenten worden gebruikt om telefonische controles voor de gek te houden. RTL deelde in november 2025 nog dat oplichters het ook op verzekeraars hebben gemunt. AI wordt gebruikt om te doen alsof er veel schade is of er worden facturen gefabriceerd die niet waar zijn. In 2024 werden er al bijna 10.000 van dit soort gevallen gevonden. In totaal gaat het om een waarde van 100 miljoen euro.

En dan zijn er ook nog deepfakes van bekende Nederlanders. In augustus van dit jaar werd nog duidelijk dat de politie iemand op het oog heeft die deepfake pornovideo’s maakte van bekende mensen. De makers plakken dan gezichten van bekende mensen op het lichaam van pornoacteurs.

Deepfakes niet direct strafbaar

In Nederland is het maken of verspreiden van een deepfake niet automatisch strafbaar, maar specifieke toepassingen zijn dat wel. Identiteitsfraude en deepfake-porno zijn uiteraard wel strafbaar. De Autoriteit Persoonsgegevens benadrukt daarnaast dat gebruik van iemands beeltenis en stem onder de AVG kan vallen. Verwerking van persoonsgegevens vereist een wettelijke grondslag en misbruik kan leiden tot handhaving of verwijderverzoeken. Dat betekent dat slachtoffers vaak rechten hebben om verspreide deepfakes te laten verwijderen of om schadevergoeding te eisen.

Het Nationaal Cyber Security Centrum (NCSC) en het Digital Trust Center wijzen erop dat deepfakes ook een cybersecurity-probleem zijn. Ze vergroten het risico op phishing, social engineering en bedrijfsfraude. Daarom adviseren zij organisaties en burgers praktische maatregelen en bewustwordingscampagnes. 

Lees verder na de advertentie.

Dit kun je tegen deepfake doen

Deepfakes worden steeds beter, maar er blijven aanwijzingen waarmee je de betrouwbaarheid van een video of telefoongesprek kunt toetsen. De Nederlandse politie heeft een aantal tips.

Stel controlevragen en bel terug. Als iemand via video of stem dringende verzoeken doet (bijvoorbeeld om snel geld over te maken of gegevens te delen), hang op en bel het bedrijf of de persoon terug via het officiële telefoonnummer. Deze eenvoudige stap ontmaskert veel pogingen omdat oplichters vaak geen tijd vragen of geen consistent verhaal kunnen geven. 

Controleer inconsistenties in beeld en geluid. Let op onnatuurlijke oogbewegingen, rare schaduwen, onnauwkeurige lip-sync of een robot-achtige stem. Ook subtiele fouten rond de kaaklijn of hals kunnen een hint zijn dat de video gemanipuleerd is. Bij telefoongesprekken moet je vragen naar details die alleen de echte persoon kan weten. 

Deepfakes realistisch probleem

Deepfakes vormen een groeiend risico voor identiteitsfraude in Nederland en recente arrestaties en onderzoeksrapporten tonen dat deze techniek al in de praktijk wordt misbruikt. Tegelijk zijn er dus effectieve tegenmaatregelen. Blijf kiritsch, bel de officiële nummers terug en stel daarnaast altijd tweestapsverificatie (2FA) in.

Wat vind jij van deepfake en ben je er wel eens in aanraking mee gekomen? Deel je ervaringen in de reacties!

scamcember
Bron afbeelding: Google

Op de hoogte blijven?

Volg Androidworld nu ook op WhatsApp

Download de nieuwe Androidworld-app!