Gemeenten missen concreet AI-beleid
Artificial Intelligence (AI) heeft de afgelopen jaren onmiskenbaar zijn intrede gedaan binnen de publieke sector. Gemeenten zetten AI steeds vaker in voor procesautomatisering, fraudedetectie en digitale dienstverlening. Toch blijkt uit het AI-Trendonderzoek 2025: “AI, het kan intelligenter” van Berenschot en Waag Futurelab dat het structurele fundament ontbreekt. Concreet AI-beleid, governance en ethische kaders zijn bij de meeste gemeenten afwezig. Voor juristen en beleidsmakers roept dit vragen op over de rechtmatigheid, uitlegbaarheid en risico’s van deze technologie in het openbaar bestuur.
1. Huidig gebruik: ad hoc en zonder kaders
Het onderzoek laat zien dat minder dan een derde van de publieke organisaties AI inzet op basis van vastgesteld beleid of werkprocessen. In de meeste gemeenten blijft het gebruik beperkt tot ad hoc experimenten, vaak door individuele medewerkers die generatieve AI-tools (zoals ChatGPT, Copilot en Gemini) benutten voor tekstgeneratie en samenvattingenai-trendonderzoek-2025-def.
Dit is problematisch in het licht van de beginselen van behoorlijk bestuur, die transparantie, verantwoording en zorgvuldigheid vereisen. Ad hoc gebruik zonder beleidslijn maakt het voor burgers en toezichthouders vrijwel onmogelijk om te achterhalen op welke grondslag en met welke waarborgen besluiten tot stand komen.
2. Richtlijnen en governance: het ontbrekende fundament
Meer dan de helft van de organisaties in het onderzoek heeft geen richtlijnen voor AI-gebruik opgesteld. Waar wel richtlijnen bestaan, zien die vooral op privacy, gegevensbescherming en naleving van wetgeving zoals de AVG, AI Act en NIS2. Thema’s als ethische beraadslaging, menselijke controle en samenwerking met AI-leveranciers blijven grotendeels onderbelichtai-trendonderzoek-2025-def.
Deze lacune is des te ernstiger nu large language models (LLM’s) geïntegreerd worden in bestaande werkomgevingen (Google, Microsoft). Daarmee wordt generatieve AI in de praktijk geïmplementeerd vóórdat kaders of risicoanalyses zijn opgesteld. Dit roept juridische vragen op over digitale autonomie en het risico van vendor lock-in bij Amerikaanse aanbieders.
3. De publieke sector onder vergrootglas
Het rapport benadrukt dat juist in de publieke sector transparantie en uitlegbaarheid randvoorwaarden zijn voor legitiem AI-gebruikai-trendonderzoek-2025-def. De nasleep van de Toeslagenaffaire toont aan welke gevolgen ondeugdelijk algoritmegebruik kan hebben. Burgers die afhankelijk zijn van gemeentelijke beslissingen (bijvoorbeeld bij uitkeringen, schuldhulpverlening of vergunningverlening) hebben recht op een inzichtelijke en toetsbare motivering.
Het ontbreken van AI-beleid maakt dat gemeenten kwetsbaar zijn voor schending van artikel 8 EVRM (recht op bescherming van privéleven) en artikel 6 EVRM (recht op een eerlijk proces) wanneer AI-besluiten ingrijpende gevolgen hebben voor burgers.
4. Voorbeelden uit de praktijk
Het rapport noemt diverse toepassingen binnen gemeenten:
Robotic Process Automation (RPA) voor administratieve taken zoals factuurverwerking en klantgegevensbeheer.
Fraudedetectie bij uitkeringen en belastingen.
AI-chatbots die 24/7 vragen van inwoners afhandelen.
Schuldhulpverlening in Delft, waar AI wordt ingezet bij intakeprocessen.
GovGPT in Montferland, een open source taalmodel in een gesloten omgeving, gebruikt voor het beoordelen van beschikkingen en het corrigeren van brievenai-trendonderzoek-2025-def.
Deze voorbeelden tonen dat AI zich niet beperkt tot ondersteunende functies, maar steeds vaker raakt aan de kern van besluitvorming.
5. Lichtpuntjes: handreikingen en kaders
Er bestaan inmiddels instrumenten die gemeenten richting kunnen geven:
De Overheidsbrede handreiking Generatieve AI (2025) biedt randvoorwaarden voor verantwoord gebruik.
Het Algoritmekader (2025) geeft ambtenaren handvatten om AI-toepassingen te toetsen aan relevante wet- en regelgeving.
Toch blijkt uit het onderzoek dat deze kaders nog onvoldoende worden toegepast in gemeentelijke praktijk. Het gevaar bestaat dat beleidsvorming achterloopt bij technologische implementatie.
6. Juridische en bestuurlijke implicaties
Het ontbreken van concreet AI-beleid in gemeenten heeft meerdere juridische consequenties:
Rechtszekerheid en motiveringsplicht
Burgers moeten kunnen nagaan hoe een besluit tot stand is gekomen. Bij AI-toepassingen zonder uitlegbaar kader is dit niet gewaarborgd.Verantwoordelijkheid en aansprakelijkheid
Wie draagt de verantwoordelijkheid bij fouten of discriminatie door een AI-systeem? Het ontbreken van governance vergroot het risico op bestuurlijke en juridische aansprakelijkheid.Toezicht en compliance
Met de inwerkingtreding van de EU AI Act zullen gemeenten hun AI-systemen moeten toetsen aan de Europese classificaties (hoog risico, beperkt risico). Zonder beleid zijn gemeenten slecht voorbereid op deze verplichtingen.
Conclusie
Het AI-Trendonderzoek 2025 toont een structurele kloof tussen de groeiende inzet van AI binnen gemeenten en de juridische en bestuurlijke waarborgen die noodzakelijk zijn. Gemeenten riskeren niet alleen bestuurlijke tekortkomingen, maar ook schendingen van fundamentele rechten.
De urgentie is groot: gemeenten moeten werk maken van AI-visies, beleidskaders en ethische governance. Alleen zo kan AI bijdragen aan efficiëntere dienstverlening, zonder de kernwaarden van de rechtsstaat te ondermijnen.