Overslaan naar hoofdinhoud

AI-hacking: soorten AI-cybercriminaliteit en hoe u veilig blijft

Een robot die een laptop gebruikt met een waarschuwing op het computerscherm

Is kunstmatige intelligentie veilig? Het is misschien wel het meest populaire onderwerp in de wereld van technologie op dit moment, en het is een onderwerp dat veel discussie oproept.

Tijdens een wereldwijde top in Parijs in februari 2025 verschilden de wereldleiders van mening over de veiligheid van AI. Zo riep de Franse president, Emmanuel Macron, op tot verdere regulering om AI vooruit te helpen, terwijl de vice-president van de Verenigde Staten, JD Vance, zei dat “een groeibevorderend AI-beleid” voorrang moet krijgen boven bezorgdheid over de veiligheid.

Terwijl legitieme bedrijven, autoriteiten en mensen manieren onderzoeken om AI op een verantwoorde en veilige manier te gebruiken, is er ook een andere dreiging: het gebruik van AI door cybercriminelen om hun kwaadaardige activiteiten nog krachtiger en succesvoller te maken.

AI-cybercriminaliteit is een doorbraak voor de beveiliging in het digitale landschap en het is van vitaal belang dat iedereen zich bewust is van de risico's en de acties die nodig zijn om veilig te blijven. Deze gids onderzoekt de verschillende soorten AI-cyberaanvallen, wat deze aanvallen betekenen vanuit het oogpunt van beveiliging en wat u nu kunt doen om uw verdediging te versterken.

Voorbeelden van succesvol hacken met AI

Het risico van door AI gegenereerde malware en andere criminele activiteiten is veel groter dan theoretisch: deze aanvallen vinden al plaats en maken wereldwijd slachtoffers. Hier zijn slechts drie van een groot aantal voorbeelden:

Nabootsing van identiteit: Guido Crosetto

Begin 2025 gebruikten oplichters AI-gegenereerde spraaktechnologie om zich voor te doen als de Italiaanse minister van Defensie, Guido Crosetto. Vervolgens namen ze contact op met rijke ondernemers in Italië met een fictief pleidooi voor financiële steun die zogenaamd zou worden gebruikt om Italiaanse journalisten te bevrijden die in het Midden-Oosten zijn ontvoerd. Ten minste één zakenman werd voor de gek gehouden door geld over te maken naar wat een frauduleuze rekening bleek te zijn.

Malware: DeepSeek ClickFix-zwendel

Een cybercrimineel bedrijf heeft een verificatiewebpagina opgezet die de nieuwe Chinese AI DeepSeek nabootst. Gebruikers die een naar hun mening een Captcha-verificatie voltooien, voeren de installatie van Vidar Stealer en Lumma Stealer uit, malware die kan worden gebruikt om gevoelige informatie te stelen, waaronder logins en bankgegevens, wat uiteindelijk resulteert in fraude met online bankieren .

Gebruikersfout: ChatGPT-lek van Samsung

Hoewel het geen AI- virus of malware- aanval als zodanig was, maakte dit spraakmakende incident duidelijk hoe de deur per ongeluk kan worden geopend voor AI-aanvallen. In het voorjaar van 2023 gebruikten medewerkers van de Koreaanse technologiegigant Samsung ChatGPT om een deel van de broncode te controleren, zonder te beseffen dat de gegevens zouden worden bewaard om het AI-model verder te trainen. Hierdoor is een deel van het zeer gevoelige intellectuele eigendom van Samsung in het publieke domein geplaatst, zodat iedereen er toegang toe heeft.

Soorten AI-cyberaanvallen

Er zijn al verschillende manieren waarop AI kan worden gebruikt voor kwaadaardige activiteiten, rechtstreeks of ter ondersteuning van andere criminele ondernemingen:

Social engineering

Bij een social engineering- aanval proberen criminelen menselijk gedrag te beïnvloeden en gebruikers ertoe te brengen vrijwillig informatie of activa aan hen af te staan. Dit kan van alles zijn, van gevoelige persoonlijke gegevens , bankrekeninggegevens, geld of cryptocurrency tot toegang tot bepaalde apparaten en databases. AI blijkt erg nuttig bij dit soort aanvallen en helpt cybercriminelen bij het identificeren van doelen, het ontwikkelen van overtuigende persona's en berichten en het maken van audio- en video-opnamen die de zwendel aannemelijker maken.

Phishingaanvallen

Phishing-aanvallen zijn afhankelijk van gebruikers die denken dat de ontvangen berichten, koppelingen en e-mailbijlagen echt zijn en klikken op wat later malware blijkt te zijn. Een goede voorlichting van gebruikers heeft in het verleden het succes van deze aanvallen helpen verminderen, maar nu wordt AI gebruikt om phishing-pogingen overtuigender dan ooit te maken. Het kan worden gebruikt in realtime communicatie zoals WhatsApp berichten of communicatie via sociale media, en zelfs in nepchatbots van de klantenservice waarbij klanten denken dat ze hun accountgegevens delen met echte medewerkers.

AI-ransomware

AI heeft de technische mogelijkheden van ransomware-aanvallen aanzienlijk uitgebreid. Dit omvat doelonderzoek, zoals het beoordelen van systemen op de meest veelbelovende kwetsbaarheden om te misbruiken, en de mogelijkheid om ransomwarebestanden aan te passen zodat ze de detectie van cyberbeveiligingsoplossingen nog steeds kunnen omzeilen.

Tegenstrijdige AI en kwaadaardige GPT's

Veel cybercriminelen verstoren de output van AI door ze onnauwkeurige gegevens te verstrekken of door te knoeien met de instellingen van het AI-model. De geïntroduceerde onnauwkeurigheden kunnen leiden tot gevaarlijke vooroordelen of het creëren van instructies die passen bij de doelstellingen van de hacker. Daarnaast is er een toename in het gebruik van kwaadaardige AI-tools die geen enkele bescherming bieden tegen vooringenomenheid en misbruik; GhostGPT is een recent voorbeeld van een ongecensureerde chatbot die kan worden gebruikt om AI-malware te maken.

Deepfakes

Je zou denken dat deepfakes alleen een probleem zijn voor publieke figuren wiens gezichten en stemmen in fictieve, compromitterende posities worden gebracht, maar de dreiging voor iedereen is reëel. Deepfake-technologie kan worden gebruikt om iemand anders te imiteren via video, spraak of een combinatie van beide. Deze kunnen mogelijk worden gebruikt om toegang te krijgen tot gevoelige informatie of zelfs bankrekeningen door beveiligings- en verificatieprocedures voor de gek te houden.

Vuur met vuur bestrijden: wat betekent cybercriminaliteit op basis van AI voor de beveiliging?

De beste tool om te gebruiken tegen AI-cyberdreigingen is kunstmatige intelligentie zelf. Dat betekent niet dat standaardbeveiligingsoplossingen machteloos zijn om door AI ondersteunde aanvallen te voorkomen: ze zullen nog steeds in staat zijn om te beschermen tegen vele soorten malware en hacking. Het toevoegen van AI aan de beveiligingsmix kan echter een extra dimensie toevoegen aan verschillende beveiligingsmethoden, zoals:

Afhandeling van incidenten

AI kan worden gebruikt om de respons op incidenten te automatiseren. Kaspersky Incident Response kan bijvoorbeeld kwaadaardige activiteit blokkeren en getroffen systemen kunnen veel sneller worden geïsoleerd dan een mens die op een systeemwaarschuwing reageert, zou kunnen. Door de respons- en oplossingstijden drastisch te verkorten, kan de impact van een aanval worden geminimaliseerd, wat uiteindelijk de omvang van de verstoringen, de kosten en het verlies van gegevens beperkt.

Bedreigingsdetectie en proactieve jacht op dreigingen

Met zoveel dreigingen kan het voor beveiligingsteams moeilijk zijn om alles bij te houden wat er is en elke waarschuwing te onderzoeken. Dit is waar AI kan helpen door het gedrag van gebruikers en netwerkverkeer in detail te analyseren, potentiële dreigingen sneller te detecteren en de valse positieven eruit te filteren die beveiligingsteams kostbare tijd kosten. AI kan de detectie van dreigingen ook proactief maken en cyberaanvallen opsporen voordat ze zelfs maar beginnen.

Malwareanalyse

De inzichten die AI kan genereren, kunnen beveiligingsteams een veel beter en diepgaander inzicht geven in hoe verschillende soorten malware in de praktijk werken. Door deze analyse te automatiseren, hebben beveiligingsteams veel sneller toegang tot deze inzichten en kunnen ze beter geïnformeerde beslissingen nemen over waar en hoe hun verdedigingen worden ontworpen en geïmplementeerd.

Scannen op kwetsbaarheden

AI-tools kunnen systemen en infrastructuur beoordelen om te bepalen waar de grootste kwetsbaarheden liggen, zodat beveiligingsteams hun tijd en middelen beter kunnen prioriteren bij het afsluiten van die kwetsbaarheden. Deze informatie is essentieel voor een beter beheer van patches en updates, zodat de meest dringende upgrades als eerste worden geïnstalleerd.

Identiteits- en toegangsbeheer (IAM)

De kracht van identiteits- en toegangsbeheer is aanzienlijk versterkt door AI omdat het ongebruikelijke patronen van gebruikersactiviteit vanaf verschillende locaties kan detecteren voor toegangspogingen tot de snelheid van typen en muisbewegingen. Deze afwijkingen kunnen in realtime worden gesignaleerd om mogelijke onbevoegde toegang te blokkeren en/of om extra verificatielagen te genereren om legitiem gebruik te bevestigen.

Ethisch hacken

Ethisch hacken en penetratietesten zijn cruciale hulpmiddelen om kwetsbaarheden te ontdekken en proactief te sluiten. Het kan echter een langzame en tijdrovende onderneming zijn vanwege de omvang van de betrokken werklast. AI kan de administratieve last van deze taken echter verlichten op twee belangrijke manieren: het automatiseren van de eenvoudigere en meer repetitieve taken die teams vertragen en het analyseren van hun resultaten om bruikbare inzichten te leveren.

Risicobeoordelingen

Dezelfde voordelen van AI voor ethisch hacken kunnen ook worden toegepast bij het ontwikkelen van risicobeoordelingen en het prioriteren van dreigingen op basis van de mate van gevaar. Dit kan ook een alledaagse, tijdrovende taak zijn (hoe belangrijk het ook is), dus het kan zeer nuttig zijn om AI te gebruiken om het proces te versnellen, repetitieve taken uit te voeren en meer gedetailleerde inzichten te verkrijgen.

Uzelf beschermen tegen AI-cyberaanvallen

Naast de bovenstaande op AI gebaseerde beveiligingsmogelijkheden, zijn er tal van manieren om de kans op succesvolle AI-hacking te minimaliseren. Vanuit het oogpunt van onze experts zijn mensen, planning en technologie het beste bij elkaar:

Stel een plan op voor de respons op incidenten

Hoe sneller u kunt reageren op een incident, hoe sneller u de gevolgen kunt beperken en ervoor kunt zorgen dat de schade zich niet te wijd verspreidt . Net als bij een brandoefening moet u precies weten wat u moet doen bij een beveiligingsincident. Uw plan moet de voorbereiding omvatten (dwz preventie en hoe te reageren), de detectie en analyse (de bevestiging van de aard en de ernst van de aanval), de beheersing en uitroeiing van de aanval (systeemisolatie, herstel en patching) en hersteltactieken die de incident niet opnieuw kan gebeuren.
Lees meer over hoe je een effectieve strategie opbouwt met de Incident Response-oplossingen van Kaspersky .

Gebruik de sterkste beschikbare beveiligingsplatforms

Zorg ervoor dat u over de meest uitgebreide beveiliging beschikt om u te beschermen tegen bestaande dreigingen en nieuwe aanvallen op basis van AI-cybercriminaliteit. Kaspersky Premium biedt bijvoorbeeld realtime antivirusbescherming die onmiddellijk actie onderneemt om een aanval te voorkomen; het bevat ook identiteitsbescherming die gevoelige persoonlijke gegevens verder beschermt.

Evalueer regelmatig de beveiligingssituatie

Nu zowel AI als cybercriminaliteit zich snel ontwikkelen, is het mogelijk dat de huidige beveiligingsmaatregelen 12 maanden later (of mogelijk zelfs eerder) niet voldoende zijn. Dit betekent dat de beveiliging regelmatig moet worden gecontroleerd en beoordeeld; AI kan dit ondersteunen door middel van realtime analyse van gebruikersactiviteit en het opsporen van afwijkende activiteit in vergelijking met de vorige auditperiode.

Bewustzijn van gebruikers en medewerkers op het gebied van beveiliging

Het aanhoudende succes van phishing-aanvallen - of ze nu ontwikkeld zijn met behulp van AI of niet - onderstreept het feit dat een goede beveiliging begint bij de gebruikers. Dit is het moment om gebruikers bewust te maken van het risico van AI-hacking en gerelateerde aanvallen, vooral over hoe overtuigend door AI gegenereerde tekst, audio en video kunnen zijn. Dit kan gebruikers eraan herinneren dat ze uiterst waakzaam moeten blijven en geen activiteiten moeten ondernemen tenzij ze er 100% zeker van zijn dat het veilig is om dit te doen. Ontdek hoe Kaspersky's Cybersecurity Training je team kan helpen waakzaam te blijven tegen AI-gedreven aanvallen.

Gerelateerde artikelen:

Gerelateerde producten:

AI-hacking: soorten AI-cybercriminaliteit en hoe u veilig blijft

AI is een krachtig hulpmiddel voor zowel goede als slechte. Ontdek hoe cybercriminelen AI gebruiken voor aanvallen en wat u kunt doen om uzelf te beschermen.
Kaspersky logo

Gerelateerde artikelen