AI en de transformatie van georganiseerde criminaliteit in Europa

Op 12 maart 2025 publiceerde Europol het meest recente EU Serious and Organised Crime Threat Assessment (EU SOCTA). Dit rapport markeert een kantelpunt: het toont aan dat kunstmatige intelligentie (AI) en andere opkomende technologieën niet alleen ondersteunend zijn aan georganiseerde misdaad, maar deze ook fundamenteel transformeren.

Voor juristen werpt het rapport cruciale vragen op: Hoe moeten bestaande juridische kaders worden aangepast aan AI-gedreven criminaliteit? Hoe bescherm je burgers tegen misleiding en digitale uitbuiting op basis van synthetische media? En hoe geef je invulling aan strafrechtelijke aansprakelijkheid wanneer daderschap steeds diffuser wordt?

AI als katalysator van criminaliteit

De meest zorgwekkende trend die het rapport beschrijft, is hoe generatieve AI – waaronder large language models (LLMs), deepfakes en voice cloningde drempel voor criminaliteit verlaagt en de impact vergroot. AI wordt onder meer ingezet voor:

  • Online fraude: Fraudeurs gebruiken AI om overtuigende scripts te schrijven, gesprekken te voeren in meerdere talen, en advertenties te genereren die nauwelijks van legitieme promotie te onderscheiden zijn.

  • Identiteitsfraude en CEO-fraude: Deepfakes worden gebruikt om bestuurders na te bootsen in videovergaderingen of om audio-instructies te simuleren naar medewerkers (bijv. bij betaling van valse facturen).

  • Romantische oplichting: AI-tools worden ingezet om datingprofielen te automatiseren, gesprekken geloofwaardig te houden, en voice-cloning toe te passen om slachtoffers te misleiden.

  • Kinderpornografie (CSAM): AI wordt gebruikt om synthetische beelden en video’s te creëren, waarmee slachtoffers kunnen worden gechanteerd of misleid, zelfs zonder dat daadwerkelijk misbruik plaatsvindt – wat bestaande strafbepalingen juridisch uitdaagt.

🔍 Juridische implicatie: AI maakt gedragingen strafbaar die zich deels in een grijs gebied bevinden. Het creëren van synthetisch beeldmateriaal roept vragen op over de definitie van kinderpornografie, ‘daadwerkelijk slachtofferschap’ en de grenzen van strafbaarheid op basis van fictie.

AI als instrument van efficiëntie en schaalvergroting

Het rapport benadrukt hoe AI de efficiëntie en schaalbaarheid van criminele netwerken vergroot:

  • Phishing en social engineering: Geautomatiseerde AI-modellen creëren gepersonaliseerde phishingmails en deepfake-audio’s, gericht op specifieke personen binnen bedrijven of instellingen.

  • Automatisering van cyberaanvallen: AI wordt ingezet om kwetsbaarheden op te sporen, malware te genereren en toegang tot systemen te verkrijgen.

  • ‘Violence-as-a-service’: AI-gestuurde communicatie (o.a. versleuteld en geautomatiseerd) wordt ingezet bij het coördineren van gewelddadige handelingen zoals vergeldingsaanvallen, waarbij afstand tussen opdrachtgever en uitvoerder extra groot is.

⚖️ Juridische implicatie: Bij AI-ondersteunde criminaliteit vervagen traditionele rollen als opdrachtgever, uitvoerder en medeplichtige. Hierdoor ontstaan nieuwe uitdagingen rond strafrechtelijke toerekening en bewijslevering, met name wanneer deepfakes en LLM-output worden gebruikt als middel tot misleiding of dwang.

AI als bedreiging voor opsporing en bewijsvoering

Het gebruik van AI bemoeilijkt de identificatie van verdachten en de authenticiteit van bewijsmateriaal:

  • Deepfake video’s en stemmen maken het mogelijk om valse betrokkenheid te suggereren, of om een alibi te construeren.

  • Generatieve tekst en automatische scripts maken het lastiger om intentie of authenticiteit te bewijzen (denk aan valse bedreigingen, valse bekentenissen of valse aansturing van criminele handelingen).

  • ‘Store now, decrypt later’: Gevoelige data wordt versleuteld opgeslagen met het oog op toekomstige decryptie via quantumtechnologie. De vraag rijst of dit op zichzelf al als voorbereidingshandeling strafbaar moet worden gesteld.

🧾 Juridische implicatie: AI verandert niet alleen het misdrijf, maar ook de digitale sporen en metadata die opsporingsdiensten gebruiken. Dit stelt eisen aan de herziening van bewijsstandaarden, forensische tools en betrouwbaarheidseisen van digitale sporen in strafzaken.

AI in criminele economieën en witwasstructuren

Criminele netwerken gebruiken AI voor geavanceerde vormen van witwassen, onder meer door:

  • Het automatisch anonimiseren van transacties via crypto-swapping en DeFi-platforms;

  • De inzet van AI voor frauduleuze investeringsplatformen, waarbij fictieve handelsgeschiedenissen, grafieken en klantenreviews worden gegenereerd;

  • Gebruik van AI-chatbots als nepklantenservice bij beleggingsfraude of illegale streamingdiensten.

🧩 Juridische implicatie: Er is dringend behoefte aan regulering van DeFi-platforms en AI-gegenereerde financiële content. Bestaande AML/KYC-verplichtingen zijn niet aangepast aan AI-gestuurde anonimiteit of decentrale systemen zonder duidelijke entiteiten.

Beleidsmatige en juridische reacties: wat is nodig?

Het rapport roept op tot een juridisch kader dat gelijke tred houdt met technologische ontwikkelingen. Belangrijke aanbevelingen voor juristen en beleidsmakers zijn:

  • Actualiseren van strafwetgeving: Strafbaarstellingen voor deepfake-gebruik, synthetische CSAM en AI-ondersteunde oplichting vragen om expliciete verankering.

  • Herziening bewijsrecht: Juridische normen voor authenticiteit van beeld, audio en tekst moeten herzien worden in het tijdperk van gegenereerde realiteit.

  • Samenwerking met techsector: Er moet een structureel partnerschap zijn tussen justitie, opsporingsdiensten en AI-ontwikkelaars voor detectie, logging en verantwoording.

  • Internationale regelgeving: De grensoverschrijdende aard van AI-gestuurde misdaad vereist een Europees en mondiaal antwoord, met aandacht voor data-uitwisseling, jurisdictiekwesties en harmonisatie van AI-gerelateerde misdrijven.

⚠️ Opmerking van de Academic Advisory Group: Hoewel Europol een waardevolle inventarisatie levert, zou de juridische analyse sterker zijn met meer wetenschappelijke onderbouwing, definities en empirische data. Dit is essentieel voor effectieve wetgeving en jurisprudentie.

Conclusie

AI is geen toekomstmuziek meer binnen het strafrecht: het is een fundamentele spelveranderaar in de wijze waarop misdaad plaatsvindt, verborgen blijft en geëscaleerd wordt. Het EU SOCTA 2025-rapport biedt een krachtig signaal dat juristen, beleidsmakers en rechtshandhavers niet kunnen negeren.

Voor de juridische wereld is de opkomst van AI in georganiseerde criminaliteit niet alleen een technisch probleem, maar een existentiële uitdaging: hoe waarborg je rechtsbescherming, proportionaliteit en bewijszekerheid in een wereld waarin realiteit, identiteit en intentie door machines gegenereerd kunnen worden?

Het antwoord ligt in samenwerking, vernieuwing van wet- en regelgeving, en het besef dat juridische instituties even flexibel moeten worden als de technologieën waarmee ze geconfronteerd worden.

Vorige
Vorige

Montferland: kleine gemeente, groot in AI

Volgende
Volgende

Richtlijn voor AI-gebruik door gerechtelijk deskundigen