Deepfakes
Wat zijn AI-gegenereerde vervalsingen?
Deepfakes zijn media-inhoud die is gemaakt of gemanipuleerd met behulp van kunstmatige intelligentie (AI). Ze zien er bedrieglijk echt uit, maar zijn in feite volledig kunstmatig gecreëerd. Dit wordt mogelijk gemaakt door deep learning, een methode van machinaal leren.
De technologie hierachter is gebaseerd op kunstmatige neurale netwerken die grote hoeveelheden trainingsgegevens analyseren. Met name Generative Adversarial Networks (GAN’s) zijn wijdverspreid – een proces waarbij twee netwerken elkaar tegenwerken: Een generator creëert inhoud en een discriminator beoordeelt de authenticiteit ervan. Dit principe is ontwikkeld door Ian Goodfellow en heeft een revolutie teweeggebracht in de ontwikkeling van synthetische media.
Er worden ook andere architecturen gebruikt, bijvoorbeeld Convolutional Neural Networks (CNN’s) voor afbeeldingen of Recurrent Neural Networks (RNN’s) – vaak in combinatie met Long Short-Term Memory (LSTM) – voor taal. Grote taalmodellen en technieken op het gebied van natuurlijke taalverwerking (NLP) spelen nu een belangrijke rol voor tekstinhoud.
Waarom zijn deepfakes riskant?
Dergelijke realistische manipulaties kunnen specifiek worden gebruikt om te misleiden. Het wordt vooral kritiek wanneer deepfakes worden gebruikt in de politiek, op sociale mediaplatforms of in bedrijven om valse informatie te verspreiden of mensen te imiteren.
Deepfakes vormen een groeiend risico op het gebied van cyberbeveiliging. Aanvallers gebruiken bijvoorbeeld synthetische stemmen om zich voor te doen als superieuren aan de telefoon – een modern geval van social engineering dat kan leiden tot grootschalige beveiligingsincidenten. Gevoelige informatie valt in verkeerde handen.
Bescherming tegen potentiële bedreigingen wordt ook complexer, omdat vervalsingen steeds moeilijker te herkennen zijn. Bedrijven moeten hun IT-beveiligingsmaatregelen uitbreiden.
Hoe kun je jezelf beschermen?
De eerste oplossingen voor het herkennen van deepfakes zijn ook gebaseerd op machine learning en worden soms gebruikt als open source tools. Deze analyseren beeld- of audiomateriaal op typische kenmerken van kunstmatige verwerking. In combinatie met training en duidelijke processen kunnen ze helpen bij het identificeren en vermijden van AI-gegenereerde inhoud.
Een sterke bewustzijnscultuur binnen het bedrijf is ook belangrijk. De combinatie van technologie, mediavaardigheden en organisatorische maatregelen biedt langdurige bescherming tegen manipulatie door kunstmatig gegenereerde inhoud.