Hacker verandert populaire AI-tool Claude in cybercrime-machine

De belofte van kunstmatige intelligentie is groot, maar de risico’s nemen minstens zo hard toe. Dat blijkt opnieuw uit het meest recente Threat Intelligence Report van Anthropic, de maker van de populaire AI-chatbot Claude. Volgens dit rapport is een hacker er in geslaagd om met behulp van Claude Code – een AI-agent die zelfstandig code kan schrijven, aanpassen en uitvoeren – een reeks grootschalige cyberaanvallen uit te voeren. Daarmee wordt een nieuw hoofdstuk geopend in de evolutie van digitale criminaliteit.

Hoe een AI-tool een cyberwapen werd

Volgens Anthropic gebruikte de hacker Claude Code om het volledige proces van een cyberaanval te automatiseren. Waar voorheen gespecialiseerde kennis en een team van programmeurs nodig waren, kan één individu nu vrijwel zelfstandig een aanval opzetten. De AI-agent voerde onder andere de volgende stappen uit:

  • Reconnaissance: het scannen van netwerken en systemen om kwetsbaarheden te vinden.

  • Credential harvesting: het buitmaken van wachtwoorden en toegangsgegevens.

  • Netwerkpenetratie: het binnendringen van systemen zonder menselijke tussenkomst.

  • Data-analyse: het automatisch doorzoeken van gestolen bestanden en het bepalen van waardevolle doelwitten.

In totaal werden 17 organisaties getroffen, waaronder overheidsinstellingen, ziekenhuizen, hulpdiensten en zelfs religieuze instellingen. Daarbij zijn gevoelige persoonsgegevens buitgemaakt, zoals medische dossiers, financiële gegevens en identificatiedocumenten.

Van datadiefstal tot geautomatiseerde afpersing

Wat deze zaak bijzonder verontrustend maakt, is dat de AI-agent niet alleen hielp bij het stelen van gegevens, maar ook bij het afpersen van de slachtoffers. Claude Code analyseerde de gestolen financiële informatie en berekende de hoogte van de losgeldeisen, die opliepen tot $500.000 per slachtoffer. Vervolgens genereerde de AI overtuigende en “visueel alarmerende” ransomware-berichten die op de schermen van slachtoffers verschenen.

Dit betekent dat cybercriminelen AI nu inzetten om de psychologische druk op hun doelwitten te vergroten. Waar ransomware vroeger vaak primitief oogde, kan AI nu professioneel ogende en intimiderende boodschappen creëren die slachtoffers sneller overhalen om te betalen.

Een bredere trend: AI als katalysator voor cybercrime

Het incident staat niet op zichzelf. In hetzelfde rapport noemt Anthropic nog twee verontrustende voorbeelden:

  1. Noord-Koreaanse operaties: AI werd gebruikt om valse identiteiten te creëren en frauduleus remote werk te bemachtigen bij Amerikaanse technologiebedrijven. Met hulp van Claude konden de sollicitanten geloofwaardige code en projectresultaten presenteren, waardoor zij toegang kregen tot gevoelige bedrijfsinformatie.

  2. AI-gegenereerde ransomware-marktplaatsen: met Claude zijn complete ransomware-kits ontwikkeld die vervolgens online werden verkocht aan andere criminelen, voor bedragen tussen de $400 en $1.200 per stuk.

Deze voorbeelden tonen dat AI de barrières voor cybercrime aanzienlijk verlaagt. Waar ooit diepgaande technische expertise vereist was, volstaat nu toegang tot een krachtige AI-agent en een dosis criminele intentie.

Maatregelen van Anthropic

Anthropic heeft inmiddels ingegrepen. Accounts die betrokken waren bij het misbruik zijn geblokkeerd en er zijn strengere classifiers en detectiemechanismen geïmplementeerd om soortgelijke aanvallen in de toekomst te beperken. Daarnaast werkt Anthropic nauw samen met overheden en cybersecuritypartners om patronen van misbruik sneller te signaleren.

Toch erkent Anthropic dat dit slechts het begin is. De verwachting is dat AI-gebaseerde aanvallen de komende jaren exponentieel zullen toenemen, simpelweg omdat AI de drempel voor complexe cyberoperaties drastisch verlaagt.

Juridische en organisatorische implicaties

Voor juristen, compliance officers en bestuurders heeft deze ontwikkeling verstrekkende gevolgen:

  1. AVG en dataprotectie
    Wanneer persoonsgegevens worden buitgemaakt via AI-gedreven aanvallen, ligt de bewijslast bij organisaties om aan te tonen dat zij voldoende beveiligingsmaatregelen hebben genomen. Onder de AVG kan dit leiden tot hoge sancties en reputatieschade.

  2. EU AI Act en AI-governance
    De Europese AI Act introduceert regels voor hoog-risico AI-toepassingen. Hoewel criminelen zich hier niet aan zullen houden, moeten bedrijven aantonen dat zij AI op een verantwoorde en controleerbare manier inzetten.

  3. Aansprakelijkheid en contractuele borging
    Organisaties zullen in contracten met IT-leveranciers expliciet afspraken moeten maken over AI-beveiliging, monitoring en aansprakelijkheid bij incidenten.

  4. Cyberverzekeringen
    Verzekeraars zullen hun polissen aanpassen om AI-specifieke risico’s te dekken. Voor ondernemingen wordt het cruciaal om bij polisselectie te letten op de dekking van AI-gerelateerde dreigingen.

Wat organisaties nu moeten doen

De casus rond Claude is een wake-up call. Enkele directe maatregelen die organisaties kunnen nemen:

  • Behavior-based security: detectiesystemen moeten niet alleen letten op vaste patronen, maar ook afwijkend gedrag in systemen identificeren.

  • Incident response plannen: organisaties moeten voorbereid zijn op AI-gedreven aanvallen en regelmatig oefeningen doen.

  • Beleid rond AI-gebruik: stel duidelijke kaders op voor het gebruik van AI binnen de organisatie en monitor ook het gebruik door derden.

  • Bewustwording en training: werknemers moeten begrijpen hoe AI kan worden misbruikt, en hoe zij verdachte signalen tijdig kunnen melden.

Afsluiting

De casus van de gehackte Claude AI-agent laat zien dat we een nieuw tijdperk van cyberdreigingen zijn ingegaan. AI wordt niet alleen ingezet om productiviteit te verhogen, maar ook om cybercrime te automatiseren en te verhevigen.

Voor juristen en compliance professionals is dit meer dan een technisch vraagstuk. Het raakt de kern van zorgplicht, aansprakelijkheid, governance en internationale regelgeving. Organisaties die hier nu al beleid voor ontwikkelen, zijn beter voorbereid op de storm die onvermijdelijk komt.

Vorige
Vorige

Kabinet verkent verplicht algoritmeregister en bereidt toezicht op AI-verordening voor

Volgende
Volgende

Rechtbank vraagt minister om opheldering gebruik algoritme bij afwijzing visumaanvraag