Overslaan naar hoofdinhoud

AI voice en deepfake scams: waarom je een bekende stem niet meer kunt vertrouwen

volwassene in kleding met een verborgen gezicht, die een mobiele telefoon gebruikt voor frauduleuze activiteiten

Het klinkt als een sci-fi-trope, maar de technologie is nu hier: AI-stemzwendel gebruikt kunstmatige intelligentie om echte stemmen te kopiëren en zich voor te doen als mensen die je vertrouwt. Dit leidt tot een eng scenario waarin een bekende stem niet langer het bewijs is dat een oproep echt is.

Oplichting met spraakherkenning door AI is niet afhankelijk van het hacken van apparaten of het doorbreken van beveiligingssystemen. De oplichters gebruiken urgentie en druk om mensen tot actie te bewegen voordat ze tijd hebben om zich af te vragen wat ze horen. Gesprekken kunnen kalm klinken of erg emotioneel en opdringerig zijn.

De veiligste reactie is eenvoudig. Stop het gesprek en verifieer het verzoek onafhankelijk met behulp van een vertrouwde methode. Met een paar gewoontes en basishulpmiddelen is het mogelijk om het risico op deze vormen van oplichting te verkleinen zonder dat u technische kennis nodig hebt.

Wat je moet weten:

  • AI-stemzwendel gebruikt gekloonde of deepfake -stemmen om je voor te doen als mensen die je vertrouwt, dus een bekende stem is niet langer het bewijs dat een gesprek echt is.
  • Deze vormen van oplichting zijn gebaseerd op urgentie en emotionele druk, niet op technische hacking, om te voorkomen dat u verzoeken kunt verifiëren.
  • Noodsituaties in het gezin en het nabootsen van de identiteit van een autoriteit (bazen en functionarissen van het bedrijf) zijn de meest voorkomende scenario's in de praktijk.
  • De veiligste reactie is om het gesprek te beëindigen en onafhankelijk te verifiëren met behulp van vertrouwde contactgegevens.
  • Eenvoudige gewoonten zoals verificatie en het gebruik van tools voor het filteren van oproepen kunnen het risico aanzienlijk verminderen.

Wat is een AI-stemzwendel?

Een AI-stemzwendel is een vorm van fraude waarbij aanvallers kunstmatige intelligentie gebruiken om de stem van een persoon te genereren of te klonen en deze tijdens telefoongesprekken of spraakberichten te gebruiken om iemand ertoe te brengen iets te doen.

Deze vormen van oplichting behoren tot de bredere categorie van phishing , ook wel voice phishing of vishing genoemd. In plaats van valse e-mails of berichten vertrouwen oplichters op realistisch klinkende stemmen om vertrouwen te wekken en mensen onder druk te zetten om snel te handelen.

Deze vorm van cybercriminaliteit heeft nu al een enorme impact op bepaalde sectoren , vooral in gebieden waar telefonische verzoeken, goedkeuringen of interacties met de ondersteuning veel voorkomen.

Oplichters kunnen zich voordoen als een familielid die om dringende hulp of geld vraagt. Ze kunnen zich voordoen als een beheerder die om betaling vraagt of als een supportmedewerker die beweert dat er een probleem is met een account. De stem klinkt echt omdat hij slim is opgebouwd uit opnamen van een echt persoon.

AI-stemzwendel is gericht en interactief. De beller kan tijdens het gesprek natuurlijk reageren en de toon aanpassen. Het kan de situatie echt en persoonlijk maken in plaats van geautomatiseerd als een oude robocaller.

Wat is een deepfake-stem en hoe wordt deze gebruikt bij oplichting?

Een deepfake-stem is een door AI gegenereerde kopie van de stem van een echte persoon die kan worden gebruikt als een overtuigende zwendel. Deze technologie wordt gebruikt om zich voor te doen als iemand die het slachtoffer al kent of vertrouwt.

Velen van ons gebruiken nu AI-assistenten die laten zien hoe effectief gesynthetiseerde stemmen kunnen zijn. Dingen worden steeds overtuigender op een manier die de lijnen van wat echt is kan vervagen.

Deepfake-stemmen zijn een van de tools van AI-stemzwendel. Ze worden vaak gecombineerd met gestolen persoonlijke gegevens om oproepen geloofwaardig en urgent te maken. Daarom klinkt het verzoek misschien redelijk of realistisch.

Veel mensen associëren deepfakes met nepvideo's online in plaats van met telefoongesprekken. Dat verschil in verwachting is waar oplichters misbruik van maken. Mensen zijn mogelijk niet alert op de risico's. Wanneer een stem bekend voorkomt, is de kans groter dat mensen snel handelen zonder te stoppen om te verifiëren.

Hoe klonen oplichters iemands stem?

Oplichters klonen stemmen door korte audiofragmenten te verzamelen en AI-tools te gebruiken om na te bootsen hoe een persoon klinkt. Ze hebben misschien maar een paar seconden duidelijke spraak nodig om iemands stem en intonatie enigszins te benaderen.

Spraakvoorbeelden zijn soms gemakkelijk te vinden. Openbare video's op sociale media en zelfs korte telefoongesprekken kunnen voldoende materiaal opleveren. Audio wordt ingevoerd in tools voor het klonen van stemmen die iemands toon en uitspraak leren. Bedenk of je audioclips op sociale media hebt staan die iemand zou kunnen nemen en gebruiken.

Het klonen van moderne stemmen is snel en schaalbaar. Wat ooit enorm specialistische vaardigheden nodig had, kan nu snel worden gedaan met behulp van algemeen beschikbare tools. Dit is een zorg omdat oplichters hierdoor overtuigende stemmen kunnen creëren en deze opnieuw kunnen gebruiken voor veel oproepen of doelen.

Waarom zijn AI voice scams zo overtuigend?

AI-stemzwendel is overtuigend omdat het horen van een bekende stem onmiddellijk een hoog niveau van vertrouwen geeft. In emotionele of urgente situaties verwachten mensen geen bedrog.

Oplichters creëren vaak druk door noodgevallen of tijdgevoelige problemen te claimen, zoals vastzitten in een stad of zelfs in het buitenland zonder de middelen om terug te komen. Gevoelens van paniek en urgentie verminderen de kans dat iemand zal pauzeren en vragen stelt aan wat ze horen, zelfs als het verzoek ongewoon of vreemd aanvoelt.

Dit is de reden waarom zelfs de meest beveiligingsbewuste mensen kunnen worden misleid. De zwendel is niet afhankelijk van technische zwakheden. Het maakt gebruik van normale menselijke reacties op stress en emoties.

Bescherm tegen oplichting door AI-spraak

Bescherm uw apparaten met Kaspersky Premium. Voorkom onbevoegde toegang, bescherm uw gegevens en houd uw systeem veilig.

Probeer Premium gratis

Wat zijn de meest voorkomende scenario's voor oplichting met AI?

De meeste AI-stemzwendel volgt bekende situaties waarin mensen dringende oproepen verwachten en de druk voelen om snel te reageren. Het maakt de verificatie moeilijk of lijkt op dit moment zelfs overbodig.

Scams voor noodgevallen voor gezinnen

Gezinsscams voor noodgevallen gebruiken gekloonde stemmen om nepproblemen te creëren met familieleden en mensen om wie je het meest geeft.

Slachtoffers melden vaak telefoontjes waarin wordt beweerd dat iemand is gearresteerd of gewond is geraakt en dringend geld nodig heeft. De beller kan om hulp smeken of verdrietig klinken. Ze zullen de luisteraar waarschijnlijk aansporen om niet op te hangen of contact op te nemen met iemand anders, omdat deze emotionele druk bedoeld is om de verificatie te stoppen en de situatie privé te houden.

De oplichter kan aandringen op onmiddellijke betaling of instructies geven om aan de lijn te blijven en uitleg geven waarom de normale contactmethoden zogenaamd niet werken. Het doel is snelheid en bedrog in plaats van lange gesprekken.

Oplichting door nabootsing van identiteit op het werk en door autoriteit

Deze oplichting imiteert leidinggevenden of mensen in officiële functies en werkplekken met behulp van kalme en zelfverzekerde stemmen die vertrouwd of professioneel klinken.

Een waargenomen niveau van autoriteit kan soms de kans vergroten dat mensen gehoorzamen. Wanneer een verzoek afkomstig lijkt te zijn van een baas of een vertrouwde instelling, is de kans groter dat mensen instructies opvolgen zonder ze in twijfel te trekken. Bij oproepen kan het gaan om dringende betalingen of vertrouwelijke taken (beide moeten worden behandeld als waarschuwingssignalen).

Deze vormen van oplichting treffen zowel persoonlijke als zakelijke telefoons omdat aanvallers zich richten op plaatsen waar al vertrouwen bestaat. Een oproep kan tijdens kantooruren zijn gericht naar een apparaat op het werk of een persoonlijke telefoon buiten kantooruren.

Welke waarschuwingssignalen zouden onmiddellijk argwaan moeten wekken?

Een spraakoproep zou argwaan moeten wekken als deze urgentie of druk veroorzaakt waardoor u het verzoek niet op de door u gewenste manier kunt verifiëren. Als de beller om geheimhouding vraagt of belt vanaf een nummer dat u niet kent, gaan uw alarmbellen af.

De persoon die u probeert op te lichten, kan erop staan dat u het gesprek geheim houdt of zegt dat u niemand kunt bereiken. Deze isolatie is opzettelijk en bedoeld om de verificatie of realisatie van wat er feitelijk tijdens het gesprek gebeurt, af te snijden.

Wees vooral voorzichtig met verzoeken met ongebruikelijke of onomkeerbare betaalmethoden zoals cadeaubonnen of cryptovaluta. Deze verzoeken zijn bedoeld om geld snel over te maken en de terugvordering ervan te bemoeilijken. Het aanvragen van cadeaubonnen is een pure vorm van oplichterij.

Wat moet je doen als je een verdacht telefoontje ontvangt?

De veiligste actie is om het gesprek te beëindigen en afstand te creëren van de druk. Elke zweem van achterdocht zou ervoor moeten zorgen dat u uw verloving verbreekt.

Hang op. Dit doorbreekt de emotionele greep en geeft je de tijd om helder na te denken. Blijf niet aan de lijn om erachter te komen of vervolgvragen te stellen, aangezien oplichters gesprekken gebruiken om hun verhaal aan te passen en andere manieren te bedenken om hun verhaal overtuigender te maken.

Verifieer het verzoek onafhankelijk met behulp van vertrouwde contactgegevens. Sta erop dat je dingen bespreekt via een opgeslagen telefoonnummer of bekend e-mailadres. Voorkom dat u het gesprek voortzet of terugbelt op hetzelfde nummer. Legitieme bellers begrijpen verificatie. Oplichters zullen proberen om het te stoppen.

Hoe kunt u zich op de lange termijn beschermen tegen oplichting door AI?

Langdurige bescherming houdt in dat u minder vaak het doelwit bent en dat het voor oplichters moeilijker wordt om te slagen.

AI-stemzwendel is afhankelijk van vertrouwen en urgentie. Eenvoudige gewoonten en realistische voorzorgsmaatregelen helpen het risico te verminderen zonder dat u de manier waarop u uw telefoon dagelijks gebruikt verandert.

Persoonlijke gewoonten die uw risico verkleinen

Kleine gewoonten kunnen een groot verschil maken. Sommige families en naaste contacten gebruiken nu codewoorden voor echte noodgevallen. Dit betekent dat een echt gesprek snel kan worden geverifieerd (lek het codewoord alleen niet).

Pas op voor openbare spraakopnamen. Video's, spraakmemo's en voicemailbegroetingen kunnen allemaal worden gebruikt als bronmateriaal voor het klonen. U hoeft delen niet helemaal te vermijden, maar het beperken van lange of heldere opnamen vermindert de blootstelling.

Behandel verificatie als normaal en niet onbeleefd. Ophangen om terug te bellen of na te praten met iemand anders zou normaal moeten zijn. Het gebruik van een vertrouwde contactmethode is een redelijke reactie en iedereen die legitiem is zal dit begrijpen. Oplichters zullen dit ontmoedigen en proberen u aan de lijn te houden zodat het een nuttige filter en test kan bieden.

Kan software helpen om zwendeloproepen door AI te verminderen?

Slechts tot op zekere hoogte. Hulpprogramma's voor het filteren van oproepen en het detecteren van spam analyseren oproeppatronen en ongebruikelijk gedrag om verdachte oproepen te blokkeren of te markeren voordat u de oproep beantwoordt. Het programma scant mogelijk ook op verdachte of bekende spamnummers.

Bescherming op telefoonniveau kan de blootstelling verminderen door bekende zwendelcampagnes te stoppen en te waarschuwen voor mogelijke fraude. Ze kunnen niet elke oproep opvangen. Er zijn veel zeer gerichte vormen van oplichting waarbij nieuwe nummers worden gebruikt.

Daarom moet software worden gezien als een ondersteuningslaag en niet als een vervanging voor een beter oordeel. Technologie kan ervoor zorgen dat u minder vaak wordt bereikt door oplichting, maar menselijke verificatie is nog steeds de beste verdediging wanneer een oproep echt klinkt.

Wat moet je doen als je al geld of informatie hebt gedeeld?

Neem onmiddellijk contact op met uw bank of betalingsprovider als er geld is overgemaakt of als rekeninggegevens zijn verstrekt. Wijzig wachtwoorden en schakel multi-factor authenticatie meteen in. Als persoonlijke informatie is gedeeld, moet u accounts nauwlettend volgen op ongebruikelijke activiteit.

Snel handelen na het delen van geld of het lekken van informatie kan verdere schade beperken en de kans op herstel vergroten.

Documenteer wat er is gebeurd terwijl het vers is. Sla gespreksdetails zoals nummers en tijden op zodat u ze als bewijs hebt. U kunt ook de instructies die u hebt gekregen, noteren. Dit record helpt providers en autoriteiten om sneller te reageren en kan voorkomen dat dezelfde zwendel ook anderen treft.

Waarom het aantal scams met AI-stem waarschijnlijk zal toenemen en hoe je het toch veilig kunt blijven

AI voice scams zullen waarschijnlijk toenemen omdat spraak oplichters een manier biedt om iemand op overtuigende wijze na te bootsen. Het is voor fraudeurs gemakkelijker om op grote schaal misbruik te maken van dat vertrouwen en het wordt steeds beter.

Bekendheid alleen kan niet langer als bewijs worden gebruikt. Dat betekent niet dat mensen machteloos zijn. De verificatie werkt nog steeds, zelfs als oplichting overtuigender wordt. Ophangen en de identiteit verifiëren zijn krachtige tools die een zwendel kunnen stoppen.

Als u verificatie als normaal en verwacht behandelt, heeft u de controle weer in handen. Het ontwikkelen van goede gewoonten kan nog steeds een enorme impact hebben en mensen helpen voorkomen dat ze betrapt worden. Bewustzijn betekent ook weten dat misschien niet alles is wat het lijkt wanneer mensen je bellen.

Gerelateerde artikelen:

Gerelateerde producten:

Veelgestelde vragen

Kunnen oplichters je stem klonen zonder dat je het weet?

Ja. Openbare video's of korte opnames kunnen voldoende zijn om een stem te klonen zonder direct contact.

Op wie richten AI-spraakzwendel zich het meest?

Iedereen kan het doelwit zijn, maar oplichters richten zich vaak op mensen van wie de stemmen of persoonlijke gegevens gemakkelijk online te vinden zijn.

Zijn AI voice scams illegaal?

Fraude, waaronder het gebruik van gekloonde stemmen om te misleiden, is in veel landen illegaal, zelfs als de technologie zelf legaal is.

AI voice en deepfake scams: waarom je een bekende stem niet meer kunt vertrouwen

AI-stemzwendel gebruikt gekloonde stemmen om zich voor te doen als mensen die u vertrouwt. Lees hoe deze nepoproepen werken, de waarschuwingssignalen en eenvoudige manieren om uzelf te beschermen.
Kaspersky logo

Gerelateerde artikelen