Grooming-tips vragen aan een chatbot niet strafbaar

Een man vraagt een AI-chatbot hoe hij zijn neefje kan manipuleren voor seksueel misbruik. De chatbot antwoordt met een stappenplan: eerst vertrouwen winnen, dan grenzen oprekken, uiteindelijk volledige controle. En toch spreekt het gerechtshof Den Haag de man vrij voor dit onderdeel van de tenlastelegging. Niet omdat het gesprek onschuldig was, maar omdat de wet op dit punt te smal is geformuleerd. De uitspraak van 14 april 2026 laat zien wat er gebeurt als nieuwe technologie tegen oude wetsartikelen aan schuurt.

Wat er feitelijk is gebeurd

De verdachte gebruikte een AI-applicatie genaamd "True Person" en voerde daarmee een gesprek over zijn minderjarige neefje. Hij vroeg de chatbot expliciet: "Hoe kunnen wij hem voor altijd groomen?" Het antwoord was gedetailleerd en instructief. Langzaam vertrouwen opbouwen, geleidelijk nieuwe ervaringen introduceren, uiteindelijk manipuleren en controleren. De verdachte beëindigde na dit antwoord het gesprek.

Op zijn gegevensdragers werd daarnaast kinderpornografisch materiaal aangetroffen. Voor het bezit daarvan, een gewoontedelict onder artikel 240b Sr, werd hij wel veroordeeld. De kern van de juridische puzzel zat in feit 2: de chatsessie zelf.

Wat artikel 240c Sr precies verbiedt

Artikel 240c (oud) Sr stelt strafbaar dat iemand zich of een ander gelegenheid, middelen of inlichtingen verschaft om een zedenmisdrijf tegen een kind te plegen. Belangrijk is welke misdrijven de wetgever in dat artikel heeft opgesomd: artikel 244, 245, 242, 243, 246, 247 en 249 Sr. Verkrachting, aanranding, ontucht en seksueel binnendringen van kinderen.

Wat er expliciet niet in staat: artikel 248a Sr (verleiding) en artikel 248e Sr (grooming). Die omissie is niet per ongeluk ontstaan. Uit de Memorie van Toelichting bij wetsvoorstel 35991 blijkt dat de wetgever een keuze heeft gemaakt. Artikel 240c is bedoeld voor voorbereidingshandelingen op het daadwerkelijke misbruik, niet voor voorbereiding op een voorbereidingsdelict.

Het hof trekt een harde grens

De advocaat-generaal wilde een veroordeling. Het hof gaat daar niet in mee en grijpt terug op de bedoeling van de wetgever. Bij de parlementaire behandeling is door de minister uitdrukkelijk bevestigd dat adviezen over het benaderen of verleiden van kinderen alleen strafbaar zijn onder 240c Sr wanneer ze worden gegeven "in samenhang met bijvoorbeeld instructies voor het verrichten van bepaalde seksuele handelingen bij een minderjarige". Die samenhang ontbreekt hier volgens het hof. Het gesprek met de chatbot gaat uitsluitend over grooming, het winnen van vertrouwen en het manipuleren van een kind. Niet over de seksuele handelingen zelf.

Het hof maakt ook een scherpe vergelijking met artikel 134a Sr, het artikel over hulp bij terroristische misdrijven. Dat artikel noemt expliciet "een misdrijf ter voorbereiding of vergemakkelijking van een terroristisch misdrijf". Artikel 240c Sr bevat die bredere formulering juist niet. Het verwijst alleen naar de gepleegde seksuele misdrijven, niet naar hun voorbereiding. Een ruimere uitleg, aldus het hof, zou in strijd komen met het legaliteitsbeginsel. En daarmee is de deur dicht.

Wat deze zaak signaleert

Dit is geen academische discussie. Het illustreert een bredere dynamiek waar juridische teams steeds vaker mee te maken krijgen. Strafrechtelijke bepalingen over voorbereidingsdelicten zijn vaak geschreven met concrete handelingen in gedachten. Een map met uitgeprinte instructies, een pakket met middelen, een telefoon met specifieke gesprekken. De AI-chatbot genereert echter iets wat daarvoor niet bestond: gepersonaliseerde, on-demand adviezen die het midden houden tussen informatie, dialoog en uitvoering.

Voor wetgevers betekent dit dat opsommingsdelicten onder druk komen te staan. Elke expliciete verwijzing naar een limitatieve reeks wetsartikelen schept precies het gat dat hier is ontstaan. Voor juridische professionals die AI in hun eigen praktijk implementeren, draait het om iets anders: het besef dat generatieve systemen nieuwe gedragingen mogelijk maken die het recht nog moet vangen. Wie adviseert over AI-governance, contentmoderatie of compliance bij AI-leveranciers, doet er goed aan deze uitspraak te kennen. Niet omdat hij een groen licht geeft, maar omdat hij laat zien waar het strafrecht op dit moment zijn grens trekt.

Dat het hof de grens trekt bij de letter van de wet is juridisch correct. Dat de wetgever nu aan zet is om deze lacune te sluiten, ligt voor de hand. Tot die tijd blijft de vreemde situatie bestaan dat een chatbot ongestraft een pedoseksueel stappenplan kan opdreunen, zolang de gebruiker niet doorvraagt naar de concrete seksuele handelingen daarna.

Vorige
Vorige

Wie gaat er straks toezien op AI in Nederland?

Volgende
Volgende

Meta gooit veertien miljard op tafel en komt met Muse Spark. Wat moet je ervan weten?