content/nl-nl/images/repository/isc/2020/how-to-protect-yourself-against-deepfake.jpg

De opkomst van deepfake

Het woord deepfake is een samenvoeging van de term ‘deep learning’ en ‘fake’, wat staat voor nep. Deep learning is een geavanceerde methode uit de wereld van de kunstmatige intelligentie (AI). Hierbij worden meerdere lagen algoritmen voor zelflerende systemen (machine learning) gebruikt om steeds hoogwaardigere beelden uit ruw basismateriaal te verkrijgen. Het kan leren van ongestructureerde gegevens, zoals het menselijke gezicht. Zo kan AI data verzamelen op basis van de bewegingen van je lichaam.

Die gegevens worden vervolgens verwerkt om een deepfake-video te maken met behulp van een GAN (Generative Adversarial Network). Dit is een ander systeem dat gebruik maakt van machine learning. Een GAN laat twee neurale netwerken tegen elkaar strijden om de kenmerken te leren van een trainingsset (foto's van gezichten, bijvoorbeeld), op basis waarvan nieuwe data worden gecreëerd met dezelfde kenmerken (nieuwe ‘foto’s’).

Omdat dit netwerk de gemaakte beelden blijft vergelijken met de trainingsset, worden de nepbeelden steeds realistischer. Zo wordt deepfake een nog grotere dreiging. Maar GAN's kunnen naast foto’s en video's ook ander nepmateriaal maken. Zo kunnen met dezelfde machine learning- en synthesetechnologie voor deepfake ook nepstemmen worden gecreëerd.

Voorbeelden van deepfake

Er zijn een aantal bekende voorbeelden van deepfake-video's. Acteur Jordan Peele heeft bijvoorbeeld een clip gemaakt waarvoor hij echt materiaal van Barack Obama samenvoegde met zijn eigen Obama-imitatie, om te waarschuwen tegen deepfake-video's. Vervolgens kun je zien hoe de twee helften van de samengevoegde video eruitzien wanneer ze worden gescheiden. Zijn advies? Wees kritisch over wat je ziet.

In een bekende video op Instagram lijkt Facebook-CEO Mark Zuckerberg te vertellen dat Facebook dankzij gestolen gebruikersgegevens ‘de controle heeft over de toekomst’. De originele beelden waren afkomstig van een toespraak die hij gaf over Russische inmenging in de Amerikaanse verkiezingen. Er waren slechts 21 seconden van die toespraak nodig om de nieuwe clip te genereren. Maar omdat de imitatie van de stem niet zo goed was als in Jordan Peele's video, was het duidelijk dat de beelden nep waren.

Toch kunnen ook minder goed gemaakte fake video's van grote invloed zijn. Zo verzamelde een clip van een ‘dronken’ Nancy Pelosi miljoenen views op YouTube, terwijl het eigenlijk gewoon een vertraagd afgespeelde video was, zodat ze leek te praten alsof ze dronken was. En veel vrouwelijke beroemdheden zagen tot hun verbazing dat ze een hoofdrol hadden in wraakpornobeelden – nadat hun gezichten waren verwerkt in seksfilms en -foto's.

De deepfake-dreiging van fraude en chantage

Deepfake-video’s worden gebruikt voor politieke doeleinden en voor persoonlijke wraak. Maar ze worden ook steeds meer toegepast bij serieuze pogingen tot fraude en chantage.

De directeur van een Engels energiebedrijf werd €220.000 afhandig gemaakt doordat een deepfake-stemimitatie  van het hoofd van het moederbedrijf hem vroeg een noodoverboeking te maken. De nepstem was zo overtuigend dat het niet in de directeur opkwam om de opdracht te verifiëren – het geld werd niet overgemaakt naar het hoofdkantoor maar naar een externe bankrekening. Hij werd pas achterdochtig toen zijn ‘baas’ opnieuw verzocht om een overboeking. Maar tegen de tijd dat hij de alarmbellen hoorde rinkelen, was het te laat; het al overgemaakte geld was niet meer terug te krijgen.

In Frankrijk werd bij een recente poging tot fraude geen deepfake-technologie gebruikt, maar werd minister van Buitenlandse Zaken Jean-Yves le Drian geïmiteerd, te midden van een exacte kopie van zijn kantoor met meubels, om zo senior managers miljoenen euro's lichter te maken. De fraudeur Gilbert Chikli zou zichzelf hebben uitgedost als de minister om rijke individuen en directeuren te vragen om losgeld voor de bevrijding van Franse gegijzelden in Syrië. Hij staat momenteel hiervoor terecht.

De mogelijke dreigingen en gevaren van deepfake

Het is ook denkbaar dat deepfake-criminelen directeuren van bedrijven chanteren door te dreigen met openbaarmaking van een beschadigende deepfake-video, tenzij ze geld ontvangen. Of ze kunnen een netwerk binnendringen door een nepvideo-oproep van het hoofd IT te maken waarin medewerkers wordt gevraagd naar hun wachtwoorden en andere informatie. Hiermee zouden hackers toegang krijgen tot allerlei vertrouwelijke gegevens.

Er is al gebruik gemaakt van deepfake-pornoclips om vrouwelijke journalisten te chanteren, zoals de Indiase Rana Ayyub, die machtsmisbruik aan de kaak stelt. Naarmate de technologie goedkoper wordt, kunnen we meer pogingen tot fraude en chantage met deepfake verwachten.

Hoe kunnen we ons beschermen tegen deepfake?

Er bestaat al wetgeving tegen de dreiging van deepfake-video's. Zo zijn in de staat Californië vorig jaar twee wetten aangenomen die aspecten van deepfake illegaal maken. Wet AB-602 verbiedt de synthese van beeldmateriaal van mensen zonder hun toestemming voor het produceren van pornografie, terwijl wet AB-730 het manipuleren verbiedt van beeldmateriaal van politieke kandidaten tijdens een periode van 60 dagen voorafgaand aan een verkiezing.

Maar is dat genoeg? Gelukkig bieden cyberbeveiligingsbedrijven steeds meer en steeds betere algoritmen om deepfake te herkennen. Hiermee worden videobeelden geanalyseerd en kleine verstoringen geïdentificeerd die worden gegenereerd tijdens het deepfake-proces. Zo maken de huidige deepfake-synthesizers bijvoorbeeld gebruik van een tweedimensionaal gezicht, dat vervolgens wordt vervormd om te passen in het driedimensionale perspectief van een video. Als je kijkt naar de richting waarnaar de neus wijst, kun je zien dat de clip nep is.

Deepfake-video’s zijn nu nog als zodanig door ons te herkennen. Kijk uit naar de volgende kenmerken van een deepfake-video:

  • schokkerige bewegingen;
  • veranderingen in belichting in opeenvolgende frames;
  • veranderingen in huidskleur;
  • vreemd knipperen van de ogen, of helemaal geen knipperen;
  • slecht gesynchroniseerde lippen en spraak;
  • digitale artefacten in het beeld.

Maar naarmate de deepfakes beter worden, zul je minder aan je ogen hebben en meer aan een goed cyberbeveiligingsprogramma.

State-of-the-art anti-fake-technologie

Er zijn verschillende technologieën in opkomst waarmee videomakers hun clips kunnen waarmerken. Zo kun je een versleuteld algoritme gebruiken om op vaste momenten hashes toe te voegen aan een video. Als er met de video wordt gerommeld, veranderen de hashes. AI en blockchain bieden de mogelijkheid om een manipulatiebestendige digitale vingerafdruk aan video's toe te voegen. Dit is vergelijkbaar met het watermerk van een document. Het probleem bij video is dat de hashes bestendig moeten zijn tegen compressie van de video voor gebruik met andere codecs.

Een andere manier om pogingen tot deepfake de kop in te drukken, is om een programma te gebruiken dat speciaal ontworpen ‘digitale artefacten’ in video's verwerkt om het door gezichtsherkenningssoftware gebruikte pixelpatroon te verbergen. Deze zorgen ervoor dat deepfake-algoritmen vertragen en leiden tot kwalitatief slechte resultaten, zodat deepfakes eenvoudiger te herkennen zijn.

Goede beveiligingsprocedures vormen de beste bescherming

Maar naast technologie zijn er nog meer manieren om je te beschermen tegen deepfake-video's. Goede fundamentele beveiligingsprocedures zijn opvallend effectief in de strijd tegen deepfake.

Zo zouden ingebouwde automatische controles in procedures voor het vrijgeven van middelen veel deepfake- en soortgelijke fraudes hebben voorkomen. Verder kun je:

  • zorgen dat werknemers en familieleden bekend zijn met de uitdagingen van deepfake en weten hoe het werkt;
  • jezelf en anderen aanleren hoe je een deepfake kunt herkennen;
  • zorgen dat je mediavaardig bent en kwalitatief goede nieuwsbronnen gebruikt;
  • goede basisregels hebt: ‘vertrouw maar controleer’. Een sceptische houding ten aanzien van voicemail en video's is geen garantie om nooit bedrogen te worden, maar kan helpen veel valkuilen te omzeilen.

Onthoud dat wanneer hackers deepfake gaan gebruiken om binnen te dringen in privé- en zakelijke netwerken, fundamentele beste praktijken van cyberbeveiliging een kritieke rol zullen spelen bij het beperken van de risico's.

  • Maak regelmatig backups van je gegevens, zodat je beschermd bent tegen ransomware en beschadigde data kunt herstellen.
  • Gebruik verschillende, sterke wachtwoorden voor verschillende accounts. Zo zorg je dat wanneer criminelen één netwerk of dienst binnendringen, de andere nog veilig zijn. Als iemand je Facebook-account binnendringt, wil je niet dat die persoon ook toegang krijgt tot je andere accounts.
  • Gebruik een goed beveiligingspakket zoals Kaspersky's Total Security om je privénetwerk, laptop en smartphone te beschermen tegen digitale dreigingen. Dit pakket biedt anti-virussoftware, een VPN die ervoor zorgt dat je wifi-verbinding niet wordt gehackt en beveiliging voor je webcams.

Hoe gaat het verder met deepfake?

Deepfake blijft in ontwikkeling. Twee jaar geleden was het nog heel eenvoudig om deepfake-video's te herkennen; dankzij de schokkerige bewegingen en omdat de neppersoon nooit met de ogen knipperde. Maar de fake video’s blijven in ontwikkeling.

Er zijn momenteel naar schatting meer dan 15.000 deepfake-video’s. Sommige zijn gewoon voor de lol gemaakt, terwijl met andere wordt geprobeerd je mening te beïnvloeden. Maar omdat een deepfake-video tegenwoordig in een dag of twee gemaakt is, kan dat aantal wel eens heel snel toenemen.

Gerelateerde links

Beroemde sterren gehackt en wat dat voor jou betekent

Webcamhacks: Word je bespioneerd door je webcam?

Welke impact heeft de opkomst van deepfakes op de toekomst van cyberbeveiliging?

Nepvideo's en deepfake - Wat kun je doen om jezelf te beschermen?

De tijd dat hackers Photoshop gebruikten om het hoofd van een politicus op het lichaam van een pornoacteur te plakken, ligt ver achter ons. Tegenwoordig gebruiken ze een technologie die vergelijkbaar is met methoden uit de filmindustrie om deepfake-video’s te maken. Door hiermee slachtoffers bepaalde uitspraken te laten doen, worden reputaties beschadigd en kunnen mensen worden gechanteerd.
Kaspersky Logo