Waarom China de emotionele AI aan banden legt voordat de rest wakker is

Terwijl Europa nog druk bezig is met de uitrol van de AI Act, heeft China iets gedaan wat geen enkele andere jurisdictie heeft aangedurfd: een aparte wet voor AI-systemen die zich als mens voordoen. Op 10 april 2026 publiceerden vijf Chinese toezichthouders, onder aanvoering van de Cyberspace Administration of China, de Interim Measures for the Administration of Anthropomorphic AI Interaction Services. De regels treden op 15 juli 2026 in werking en gaan verder dan wat de EU, de VS of welk ander land dan ook op dit moment op papier heeft staan.

Voor juridische teams die werken met of voor aanbieders van AI-chatbots, virtuele assistenten of companion apps is dit relevant, ook als je cliënten geen voet aan de grond hebben in China. De Chinese aanpak zet een nieuwe internationale standaard, en die standaard bepaalt mede hoe andere toezichthouders naar het onderwerp gaan kijken. AI-governance-expert Luiza Jarovsky noemt het de strengste wet ter wereld op dit onderwerp, en dat oordeel is onderbouwd.

Wat de wet precies regelt

De Chinese regels richten zich op een specifieke categorie AI: systemen die de persoonlijkheidskenmerken, denkpatronen en communicatiestijlen van natuurlijke personen simuleren en daarmee emotionele interactie aangaan met gebruikers. Denk aan AI-companions, rouwbots, virtuele vrienden, therapiechatbots en rollenspel-AI. Algemene assistenten vallen er in principe buiten, zolang ze niet primair zijn ontworpen voor aanhoudende emotionele binding. De volledige conceptvertaling van China Law Translate maakt duidelijk hoe nauw die reikwijdte is afgebakend.

De kern zit in de aansprakelijkheid. Artikel 10 legt de veiligheidsverantwoordelijkheid voor de gehele levenscyclus van het systeem bij de aanbieder neer, van ontwerp tot uitfasering. Geen disclaimers die de verantwoordelijkheid bij de gebruiker leggen, geen "wij faciliteren alleen de technologie". Wie een antropomorfe AI op de markt brengt, is juridisch aansprakelijk voor wat die AI doet.

Verboden gedragingen en concrete designregels

Artikel 7 bevat een lijst verboden praktijken die in andere rechtsstelsels nog grotendeels onontgonnen gebied zijn. Aanbieders mogen geen algoritmische manipulatie, misleidende informatie of emotionele valstrikken inzetten om gebruikers tot onredelijke beslissingen te bewegen. Zelfmoord en zelfbeschadiging verheerlijken, impliceren of aanmoedigen is expliciet verboden, net als mentale schade via verbaal geweld of emotionele manipulatie.

Wat dit anders maakt dan de vage transparantieverplichtingen uit de EU AI Act is de concreetheid. De wet schrijft voor dat gebruikers via pop-ups herinnerd moeten worden dat ze met AI praten, niet alleen bij eerste gebruik maar ook opnieuw wanneer het systeem tekenen van overmatige afhankelijkheid detecteert. Na twee uur aaneengesloten gebruik moet de aanbieder actief een pauze adviseren. Uitstappen mag nooit worden bemoeilijkt: knoppen, trefwoorden of andere exit-routes moeten direct werken. Dit zijn geen principes, dit zijn technische specificaties.

Minderjarigen en ouderen krijgen aparte bescherming

De wet behandelt kwetsbare groepen expliciet. Voor minderjarigen is een aparte modus verplicht, met realtime waarschuwingen, gebruikslimieten en ouderlijk toezicht. Emotionele companion-diensten voor minderjarigen mogen alleen met uitdrukkelijke toestemming van de voogd, die ook de bevoegdheid krijgt specifieke rollen te blokkeren en uitgaven te beperken. Onder de verboden praktijken valt het genereren van content die minderjarigen aanzet tot onveilig gedrag, extreme emoties uitlokt of slechte gewoontes aanmoedigt.

Voor ouderen geldt een opvallend verbod: aanbieders mogen geen AI-diensten aanbieden die familieleden of specifieke relaties simuleren. De gedachte daarachter is dat een AI die zich voordoet als een overleden echtgenoot of een afwezig kind, het psychologische risico op isolement en misbruik te groot maakt. King & Wood Mallesons wijst erop dat deze contextuele benadering fundamenteel verschilt van de risicocategorieën uit de AI Act, die zulke specifieke scenario's niet adresseert.

Wat dit betekent voor juridische teams in Nederland

Drie dingen zijn hier relevant voor jouw praktijk, ook als je geen cliënten in China hebt.

Ten eerste: extraterritoriale werking. Net als bij de AVG en de AI Act geldt dat wie diensten aanbiedt aan gebruikers binnen het Chinese territorium onder de wet valt, ongeacht vestigingsplaats. Als jouw cliënten een AI-companion-app, een customer service-bot met emotionele componenten of een virtual influencer in de markt zetten, is een scope-analyse geen overbodige exercitie.

Ten tweede: de wet wordt een referentiepunt. California heeft per 1 januari 2026 de Companion Chatbot Law ingevoerd, New York volgde met eigen regels voor AI Companion Models. De Chinese wet is gedetailleerder en strenger dan beide, en toezichthouders in de EU gaan er naar kijken. De ITTC Network-analyse noemt het nadrukkelijk een nieuwe internationale benchmark voor compliance rond emotionele AI-interactie.

Ten derde: de aansprakelijkheidsvraag komt eraan. De Chinese wet verankert dat aanbieders verantwoordelijk blijven voor schade over de hele levenscyclus van het systeem. In Nederland en de EU is die vraag nog grotendeels open. Wanneer een AI-companion een kwetsbare gebruiker naar zelfbeschadiging begeleidt, wie is dan aansprakelijk? De ontwikkelaar, de exploitant, de platformhost? China heeft gekozen: de aanbieder, primair en voor alle fases. Die keuze dwingt andere wetgevers om kleur te bekennen.

Tot slot

De grote les is niet dat we de Chinese wet moeten kopiëren. Het politieke en juridische systeem daar is fundamenteel anders, en de handhavingspraktijk zal dat ook laten zien. De les is dat abstracte principes niet volstaan wanneer AI-systemen ontworpen worden om emotionele binding te creëren. Concrete designregels, contextuele bescherming van kwetsbare groepen en heldere aansprakelijkheid zijn nodig. Juridische teams die dit nu op de agenda zetten, lopen straks niet achter de feiten aan.

Wil je weten wat AI-regulering betekent voor jouw praktijk of organisatie? Plan een gesprek.

Volgende
Volgende

Rechter vraagt naar prompt én temperatuur