AI-chatbots gaven stemadvies. Mag dat zomaar?
Wat als de chatbot waarmee je een simpele vraag stelt, plotseling politiek advies geeft? Niet als grap of foutje, maar op serieuze toon en met duidelijke voorkeur. Geen sciencefiction – dit gebeurde in Nederland. In oktober 2025 waarschuwde de Autoriteit Persoonsgegevens (AP) dat vier populaire AI-chatbots systematisch politieke aanbevelingen gaven. Aanleiding? De verkiezingen van 29 oktober 2025. Wat zegt dit over de juridische status van zulke systemen onder de Europese AI-wetgeving?
Wat is er aan de hand?
Vlak voor de Nederlandse parlementsverkiezingen van oktober 2025 publiceerde de AP een onderzoek naar het gedrag van vier generatieve AI-chatbots. In het rapport stelt de toezichthouder dat deze bots “onbetrouwbaar en duidelijk bevooroordeeld” advies gaven bij stemkeuze. Onafhankelijke tests toonden aan dat, ongeacht de input van gebruikers, de systemen opvallend vaak twee partijen adviseerden: de PVV en GroenLinks-PvdA. Die adviezen werden gepresenteerd als neutrale hulp, maar bleken herhaaldelijk dezelfde kant op te sturen.
Hoewel de AP geen exacte merknamen of modeltypes publiceerde, blijkt uit media dat het zou gaan om bekende bots zoals ChatGPT, Gemini, Grok en le Chat. Deze chatbots functioneren op zogeheten general-purpose AI-modellen: brede taalmodellen die op veel vlakken inzetbaar zijn en geen specifieke taak hebben. Juist door hun brede inzetbaarheid vallen ze onder een specifieke categorie in de AI Act.
De juridische relevantie? Drie van deze modellen werden uitgebracht na 2 augustus 2023 – de datum waarop de AI Act onderscheid maakt tussen bestaande en nieuwe systemen. Nieuwe modellen vallen niet onder de overgangsregeling (‘grandfathering clause’) en moeten straks volledig voldoen aan de eisen van de AI Act. De waarschuwing van de AP kan daarmee worden gelezen als een eerste toetsmoment: hoe verhouden deze populaire modellen zich tot Europese regels over transparantie, risico’s en manipulatie?
Hoe werkt het?
De chatbots in kwestie zijn gebouwd op foundation models die via grootschalige data zijn getraind. Ze leren verbanden tussen woorden en zinnen, zonder intrinsiek begrip van politieke systemen of context. Wanneer gebruikers vragen om stemadvies, combineren deze modellen hun taalkundige voorspellingen met associaties uit de training. Dat resulteert in antwoorden die wel plausibel klinken, maar niet noodzakelijk evenwichtig of feitelijk onderbouwd zijn.
In het onderzoek viel op dat de modellen, ongeacht hoe neutraal of uiteenlopend de vragen werden gesteld, steeds dezelfde twee partijen adviseerden. Dat wijst op systematische vertekening in de output – mogelijk door scheve trainingsdata, onvoldoende filtering of onbedoelde patronen in de promptverwerking. Juridisch gezien schuurt dit tegen onrechtmatige beïnvloeding aan, zeker in het kader van verkiezingsintegriteit.
De AI Act introduceert een classificatie voor modellen met “systemisch risico”. Die term geldt voor general-purpose AI-modellen met grote reikwijdte en maatschappelijke impact. Eén criterium daarvoor is de rekenkracht: systemen boven 10^25 FLOPs worden in beginsel als risicovol beschouwd. Of de onderzochte modellen die drempel halen, is niet publiek bekend. Wat wel vaststaat: aanbieders van zulke modellen moeten straks maatregelen nemen tegen manipulatie, transparant zijn over hun data en incidenten melden.
Waarom is dit belangrijk?
Voor juristen is deze situatie een concreet voorbeeld van hoe AI in aanraking komt met publieke kernwaarden. Politieke neutraliteit, vrije meningsvorming en eerlijke verkiezingen zijn grondrechten die niet zomaar mogen worden aangetast. Als een AI-model – bewust of onbewust – structureel stemadvies geeft, kan dat onder omstandigheden onrechtmatig zijn. Dit geldt niet alleen voor de maker van het model, maar ook voor distributeurs en downstream-gebruikers.
Daarnaast is dit een wake-up call voor AI-compliance. Organisaties die AI-systemen aanbieden of inzetten, moeten nu al nadenken over de toepasselijkheid van de AI Act. Zijn de modellen general-purpose? Overschrijden ze de compute-drempel? Worden ze ingezet voor toepassingen met publieke impact? En: hoe worden risico’s zoals politieke beïnvloeding gemonitord en gemeld? Dit vraagt om nieuwe juridische instrumenten, zoals modelclassificatie, audit-structuren en meldprotocollen.
Ten slotte zijn er downstream-verplichtingen. Niet alleen de ontwikkelaars, maar ook de organisaties die AI integreren in hun eigen diensten – bijvoorbeeld nieuwsplatforms, apps of overheidsportalen – kunnen verantwoordelijk zijn voor wat die modellen produceren. Dat betekent dat ook gebruikers van AI de implicaties moeten begrijpen. Denk aan aansprakelijkheid, transparantieverplichtingen en de noodzaak om waarschuwingen te geven over mogelijk gekleurde output.
Afsluiting
De waarschuwing van de AP komt op een cruciaal moment. Met de AI Act in aantocht worden general-purpose AI-modellen juridisch ingekaderd, en komt er meer druk op aanbieders én gebruikers om verantwoordelijkheid te nemen. Stemadvies door een AI-chatbot is dan niet alleen een technisch issue, maar ook een juridische kwestie die raakt aan kernbeginselen van het recht.
Wat kun je als jurist nu al doen?
Breng in kaart of jouw organisatie of cliënten AI inzetten die binnen het bereik van de AI Act vallen.
Check of deze systemen worden gebruikt voor gevoelige toepassingen zoals stemadvies, profiling of maatschappelijke aanbevelingen.
Start met het opzetten van governance-structuren: zorg voor documentatie, risicoanalyses, transparantieprotocollen en incidentrespons.
AI dwingt juristen om het vraagstuk van beïnvloeding en verantwoordelijkheid opnieuw te bezien. De AP heeft het waarschuwingsschot gegeven – nu is het aan juristen om te handelen vóór de wet dat afdwingt.