AI-gevaren: cybercriminelen gebruiken taalmodellen voor cryptodiefstal!
Cybercriminelen gebruiken AI-gestuurde malware om crypto te stelen. Google waarschuwt voor huidige bedreigingen en versterkt de beveiligingsmaatregelen.

AI-gevaren: cybercriminelen gebruiken taalmodellen voor cryptodiefstal!
Een recent rapport van de Google Threat Intelligence Group benadrukt een zorgwekkende trend op het gebied van cybercriminaliteit, waarbij cybercriminelen steeds vaker gebruik maken van grote taalmodellen (LLM's) om malware intelligenter en flexibeler te maken. Het document, waarvan de details te vinden zijn op Crypto News, rapporteert vijf verschillende families van AI-aangedreven malware die specifiek is ontworpen om zich te richten op hoogwaardige doelen zoals cryptocurrencies.
De nieuwe malwarefamilies kunnen zichzelf in realtime herschrijven met behulp van LLM's zoals Gemini- en Qwen2.5-codeerders om kwaadaardige code te genereren, aan te passen of te verbergen. Dit betekent een aanzienlijke vooruitgang, omdat de malware nu zijn gedrag dynamisch kan aanpassen.
Technieken en aanvalspatronen
Een opmerkelijk voorbeeld van deze ontwikkeling is de PROMPTFLUX-malwarefamilie, die gebruik maakt van een zogenaamd ‘denkende robot’-proces. Dit proces roept elk uur de Gemini-API aan om de VBScript-code bij te werken. Een andere familie, PROMPTSTEAL, geassocieerd met de Russische APT28-groep, gebruikt het Qwen-model op Hugging Face om de vereiste Windows-opdrachten te genereren. Deze methode van “just-in-time codecreatie” vertegenwoordigt een aanzienlijke verschuiving ten opzichte van traditionele malware die hardgecodeerde logica volgt.
Uit de rapporten blijkt dat deze AI-gestuurde aanvallen al actief zijn en zich specifiek richten op dure activa zoals crypto-bezit. Een bijzonder zorgwekkend aspect is de identiteit van de daders: de Noord-Koreaanse groep UNC1069, ook wel bekend als Masan, gebruikt AI-technologieën om cryptodiefstal uit te voeren. Ze misbruiken deze technologieën om crypto-wallets te doorzoeken, phishing-scripts te maken en gerichte social engineering-aanvallen te ontwikkelen.
Google reageert op de dreiging
Google heeft al actie ondernomen als reactie op deze dreiging. Het bedrijf heeft accounts die verband houden met bovengenoemde activiteiten uitgeschakeld en strengere beveiligingsmaatregelen geïmplementeerd. Dit omvat verbeterde API-monitoringmechanismen en snellere filters om potentiële aanvallen te detecteren en te beperken.
De ontwikkelingen op het gebied van door AI aangedreven malware roepen niet alleen vragen op over cyberbeveiliging, maar benadrukken ook de urgentie om zich bewust te zijn van deze bedreigingen en passende actie te ondernemen. De combinatie van geavanceerde technologie en criminele activiteiten zou op de lange termijn tot aanzienlijke verliezen in de digitale activasector kunnen leiden.