Competenties en governance voor AI in de publieke sector – inzichten en aanbevelingen
Kunstmatige intelligentie (AI) biedt grote kansen voor de publieke sector, van efficiëntere dienstverlening tot datagedreven beleid. Tegelijk brengt AI complexe vragen met zich mee over vaardigheden, regelgeving en verantwoorde inzet. Een recent Joint Research Centre (JRC)-rapport van de Europese Commissie benadrukt dat succesvolle toepassing van AI in de overheid vooral afhangt van twee factoren: de juiste competenties bij ambtenaren en passende governancepraktijken binnen de organisatie. Met andere woorden, overheidsinstellingen moeten beschikken over gekwalificeerd personeel én goede bestuursmechanismen om AI op een ethische en effectieve manier te implementeren.
In deze blog bespreken we de belangrijkste inzichten uit het JRC-rapport “Competences and Governance Practices for Artificial Intelligence in the Public Sector”. We richten ons op wat juristen en beleidsmakers moeten weten. We vatten de kernpunten samen, belichten de juridische en bestuurlijke uitdagingen van AI in de publieke sector, en geven praktische aanbevelingen om met AI aan de slag te gaan in overheidsorganisaties.
Nieuwe competenties voor AI in de publieke sector
AI-toepassingen vragen om nieuwe vaardigheden en kennis binnen overheidsinstanties. Het JRC-onderzoek identificeert drie hoofdgroepen van competenties die essentieel zijn voor ambtenaren die met AI werken:
Technische competenties: Begrip van data-analyse, machine learning en algoritmes. Denk aan databewerking, modelontwikkeling, het beoordelen van AI-systemen en kennis van IT-infrastructuur. Ook AI-data geletterdheid valt hieronder: ambtenaren moeten voldoende basiskennis hebben van AI-technologieën (zoals weten wat machine learning inhoudt en hoe algoritmen werken) om informed besluiten te nemen.
Managementcompetenties: Vaardigheden om AI-projecten in goede banen te leiden en strategisch in te bedden. Dit omvat projectmanagement, verandermanagement en het kunnen stimuleren van een data-gedreven cultuur. Leidinggevenden moeten bijvoorbeeld weten hoe ze multidisciplinaire AI-teams opzetten, risico’s inschatten en resultaten van AI-projecten evalueren. Ook attitude speelt een rol: bereidheid om te experimenteren met AI en openstaan voor nieuwe ontwikkelingen (een positieve houding ten opzichte van innovatie).
Beleid-, juridische en ethische competenties: Kennis om AI binnen wettelijke kaders en ethische normen te houden. Dit betekent bekendheid met relevante wetgeving (zoals privacyregels (AVG/GDPR) en aankomende EU-regelgeving als de AI-verordening), maar ook het kunnen toepassen van ethische richtlijnen. Voorbeelden zijn AI-procurement expertise (weten waar je op moet letten bij het inkopen van AI-systemen) en kunnen toezien op aspecten als transparantie, non-discriminatie en verantwoording. Juristen binnen de overheid spelen hier een belangrijke rol: zij moeten kunnen beoordelen of een AI-systeem voldoet aan de wetten en of de inzet ervan proportioneel en billijk is.
Deze competenties zijn het sterkst wanneer ze multidisciplinair worden gecombineerd. Een ambtenaar of team dat technische, management- én juridische kennis bijeenbrengt, kan AI-projecten beter laten slagen. Zo’n brede set aan vaardigheden helpt om bruggen te slaan tussen ontwikkelaars, beleidsmedewerkers en juridische toezichthouders. Het JRC-rapport stelt dan ook dat overheden moeten investeren in het ontwikkelen van dit soort gecombineerde competenties bij hun personeel.
Goede governancepraktijken: van richtlijnen tot stakeholderbetrokkenheid
Naast individuele vaardigheden is ook de governance – het stelsel van beleid, processen en structuren – cruciaal om AI succesvol en verantwoord toe te passen. Het JRC-onderzoek definieert AI-gerelateerde governancepraktijken als het organisatorische vermogen om de invoering van AI in goede banen te leiden, zodat technologie en publieke doelen op één lijn liggen. Er worden 34 governancepraktijken onderscheiden, gegroepeerd in drie categorieën:
Procedurele praktijken: Richtlijnen en processen die zorgen voor verantwoord AI-gebruik. Denk aan het opstellen van ethische AI-richtlijnen, protocollen voor transparantie en accountability (wie is verantwoordelijk voor AI-besluiten), procedures voor risicobeoordeling en toezicht op algoritmen, en maatregelen voor gegevensbeheer en privacybescherming. Deze procedures helpen om consistentie te waarborgen en juridische naleving te verzekeren. Een voorbeeld is het invoeren van een protocol dat bepaalt dat bij belangrijke AI-gedreven beslissingen altijd een menselijke controle (human-in-the-loop) plaatsvindt en dat uitleg (explainability) gegeven kan worden over hoe het algoritme tot een beslissing is gekomen.
Structurele praktijken: Organisatorische structuren en rollen om AI te begeleiden. Voorbeelden zijn het aanstellen van data stewards of AI-specialisten, het instellen van een ethisch AI-comité of een interne stuurgroep die AI-projecten monitort, en het opzetten van een cybersecurity-afdeling toegespitst op AI-risico’s. Ook het bijhouden van een register van algoritmen die de overheid gebruikt, is zo’n structurele governancepraktijk die bijdraagt aan transparantie. Deze organisatorische aanpassingen zorgen ervoor dat er duidelijke aanspreekpunten en verantwoordingslijnen zijn voor AI binnen de dienst.
Relationele praktijken: Samenwerking en betrokkenheid van stakeholders bij AI. Dit omvat zowel interne samenwerking tussen afdelingen als externe relaties. Een belangrijk aspect is het vormen van communicatienetwerken of communities of practice waarin ambtenaren kennis en ervaringen over AI-uitdagingen delen. Daarnaast valt hieronder het betrekken van burgers, bedrijven, academici en andere belanghebbenden bij AI-projecten – bijvoorbeeld via consultaties, gebruikerspanels of co-creatie. Dit wordt ook wel “stakeholders-in-the-loop” genoemd: alle relevante partijen krijgen een stem in de ontwikkeling en inzet van AI. Zulke relationele praktijken vergroten het draagvlak, verbeteren het begrip van maatschappelijke zorgen (zoals bias in algoritmes) en stimuleren vertrouwen in AI-systemen.
Effectieve AI-governance vereist aandacht op alle niveaus van de organisatie – strategisch, tactisch en operationeel. Strategisch niveau betekent dat topmanagement een visie en beleid voor AI uitstippelt (bijv. opname van AI-doelen in de organisatiestrategie, en zorgen voor aansluiting bij nationale AI-strategieën). Tactisch niveau betreft middelmanagement dat AI-projecten concreet uitvoert volgens richtlijnen (bijv. projectleiders die zorgen dat er een risicoanalyse en juridische check gebeurt bij het ontwikkelen van een AI-toepassing). Operationeel niveau is de dagelijkse praktijk van teams en individuen die met AI-systemen werken (bijv. data-analisten die de modellen trainen, juridisch adviseurs die contracten toetsen, etc.).
Belangrijk is dat deze governancepraktijken onderling samenhangen. Zonder duidelijke procedures kunnen structuren tandeloos zijn; zonder de juiste mensen en structuren blijven procedures op papier; en zonder samenwerking met betrokkenen mist context en legitimiteit. Een overheid die AI wil inzetten moet dus zowel heldere richtlijnen en processen opstellen, organisatie-aanpassingen doorvoeren, als actief de dialoog aangaan met alle stakeholders.
Juridische en governance-uitdagingen bij AI in de overheid
Het toepassen van AI in de publieke sector gaat gepaard met aanzienlijke uitdagingen op juridisch en governance-gebied. Enkele van de belangrijkste knelpunten die naar voren komen:
Regelgeving en compliance: Overheidsorganisaties worstelen met het snel veranderende regelgevingslandschap rond AI. Nieuwe EU-regels, zoals de voorgestelde AI-Verordening (EU AI Act), stellen eisen aan transparantie, risicobeheer en menselijk toezicht op AI-systemen. Veel respondenten in het onderzoek gaven aan dat het een uitdaging is om hun AI-beleid in lijn te brengen met nationale en EU-strategieën en om te anticiperen op aankomende regelgeving. Juristen moeten nu al beoordelen hoe AI-projecten passen binnen bestaande wetten op privacy, non-discriminatie, aansprakelijkheid en administratief recht, terwijl die kaders vaak nog onduidelijk of in ontwikkeling zijn. De onzekerheid hierover kan tot vertraging of terughoudendheid leiden bij AI-initiatieven.
Verantwoording en transparantie: AI-modellen (zoals neurale netwerken) kunnen een “black box” karakter hebben, wat botst met de vereisten van openbaar bestuur. Beleidsmakers moeten kunnen uitleggen hoe een besluit tot stand is gekomen, zeker als geautomatiseerde besluitvorming burgers raakt. Het waarborgen van uitlegbaarheid (explainability) is zowel een ethische als juridische uitdaging. Bovendien vereist de AVG dat individuen inzicht kunnen krijgen in geautomatiseerde beslissingen over hen. Overheden staan voor de taak om AI-systemen zo in te richten dat ze controleerbaar en uitlegbaar zijn, en om interne kennis op te bouwen zodat ambtenaren de uitkomsten van AI kunnen interpreteren en verantwoorden.
Bias en discriminatie: AI-systemen kunnen vooringenomenheid bevatten of ongewenste verschillen in behandeling veroorzaken. Dit kan leiden tot discriminatie wat in strijd is met de wet (bijv. gelijke behandelingswetgeving) en het vertrouwen van burgers ernstig schaadt. Het opsporen en mitigeren van bias in data en algoritmen is technisch ingewikkeld, maar juridisch essentieel om rechtsgelijkheid te bewaken. Governanceprocedures zoals impact assessments en auditmechanismen zijn nodig om dit risico te beheersen, maar in de praktijk ontbreekt het hier nog vaak aan.
Datastrategie en privacy: AI is zo goed als de data die het gebruikt. Overheden beschikken over grote hoeveelheden gegevens, maar die moeten zorgvuldig beheerd worden. Datakwaliteit, interoperabiliteit en privacybescherming vormen een spanningsveld. Bijvoorbeeld, het delen van data tussen afdelingen of met externe AI-leveranciers roept vragen op over privacy (mag het volgens de AVG?), veiligheid en eigendom van data. Tegelijk is toegankelijkheid van data voor AI-projecten cruciaal – het JRC-rapport noemt dat beperkte data-toegang een veelvoorkomend knelpunt is bij extern ingekochte AI-oplossingen. Juridische afdelingen moeten bijvoorbeeld voorwaarden opstellen om te borgen dat de overheid de nodige inzage en controle houdt over data en algoritmes, ook als deze door een externe partij worden geleverd.
Inkoop en vendor lock-in: Veel publieke organisaties staan voor de “make or buy”-keuze bij AI. Eigengemaakte AI vergt intern talent, maar AI inkopen van leveranciers brengt andere risico’s. Een genoemd probleem is afhankelijkheid van leveranciers: als een gemeente een AI-systeem van een bedrijf afneemt, kan het lastig zijn om later over te stappen of de dienst intern verder te ontwikkelen. Ook kan het contractueel een uitdaging zijn om af te dwingen dat het systeem voldoet aan alle publieke waarden (transparantie, privacy, etc.). Publieke inkoopprocedures zijn bovendien complex en niet altijd toegesneden op high-tech producten, waardoor innovatie en zorgvuldigheid balanceren lastig is.
Gebrek aan expertise en capaciteit: Tot slot is er de uitdaging van schaarse kennis. Het aantrekken en behouden van personeel met geavanceerde AI-kennis is moeilijk voor de overheid, die vaak minder kan bieden dan de markt. Daarnaast zijn veel organisaties nog lerende: er is behoefte aan capaciteitsopbouw, training en cultuurverandering. Zonder voldoende expertise is het lastig om externe adviesbureaus of leveranciers te “challengen” en goed toezicht te houden op AI-projecten. Dit gebrek aan capaciteit bemoeilijkt ook het opstellen van goede governance: je kunt bijvoorbeeld wel een ethisch comité instellen, maar het moet ook gevuld zijn met mensen die verstand hebben van AI én ethiek/juridische kwesties.
Deze uitdagingen tonen aan dat AI-implementatie in de publieke sector niet louter een technische aangelegenheid is. Het vereist scherp juridisch inzicht, doordachte governance en investering in mensen en processen. Voor juristen betekent dit dat ze zich moeten verdiepen in technologische basisprincipes, en voor beleidsmakers dat ze rekening moeten houden met juridische randvoorwaarden vanaf dag één van een AI-project.
Aanbevelingen voor beleidsmakers en juristen
Hoe kunnen overheidsorganisaties deze uitdagingen aanpakken en de vruchten van AI plukken? Het JRC-rapport doet zes kernaanbevelingen, uitgewerkt in 18 concrete acties, om de benodigde competenties en governancepraktijken te ontwikkelen. Hieronder vatten we de belangrijkste aanbevelingen samen, toegespitst op wat juristen en beleidsmakers ermee kunnen doen:
Investeer in multidisciplinaire AI-training voor ambtenaren: Ontwikkel gerichte opleidingsprogramma’s waarin technische, management- en juridische aspecten van AI samenkomen. Integreer AI-modules in bestaande cursussen voor overheidspersoneel en creëer zo nodig gespecialiseerde leerlijnen per rol. Bijvoorbeeld, een inkoper of juridisch adviseur zou training moeten krijgen in AI-technologie en -ethiek (denk aan AI-procurement cursussen), terwijl een data scientist ook getraind wordt in privacywetgeving en bestuursrechtelijke principes. Samenwerking met universiteiten en private partijen kan helpen om up-to-date kennis aan te bieden.
Stimuleer toegepast onderzoek en kennisdeling: Beleidsmakers kunnen onderzoeksprojecten ondersteunen die zich richten op AI in de overheid en de daarbij vereiste competenties. Richt bijvoorbeeld kennisconsortia op tussen overheidsorganisaties, academici en bedrijven om best practices te ontwikkelen. Deel de resultaten van pilots en cases actief via workshops, publicaties of een kennisplatform. Dit creëert een lerend netwerk binnen de publieke sector, zodat niet ieder voor zich het wiel hoeft uit te vinden. Juristen kunnen hier aan bijdragen door bijvoorbeeld cases te documenteren over hoe juridische vraagstukken bij AI zijn opgelost, zodat collega’s daar lering uit trekken.
Trek AI-expertise aan en behoud talent: Ontwikkel als organisatie een strategie om AI-specialisten te werven en te behouden. Dit kan via gerichte wervingscampagnes, het aanbieden van aantrekkelijke loopbaanperspectieven of het opzetten van fellowship- en stageprogramma’s voor jonge professionals in AI. Daarnaast is het slim om banden aan te halen met kennisinstellingen en innovatiehubs – bijvoorbeeld door gastonderzoekers uit te nodigen of gezamenlijk projecten op te zetten. Voor juristen houdt dit in dat zij mogelijk nieuwe profielen binnen hun teams moeten verwelkomen, zoals data-analisten of technisch georiënteerde juristen, en nauwer samenwerken met IT-specialisten.
Bouw communicatienetwerken en communities of practice: Vooral kleinere overheidsorganisaties die aan het begin van AI-toepassing staan, kunnen veel baat hebben bij onderlinge samenwerking. Beleidsmakers zouden het opzetten van netwerken moeten faciliteren waarin ambtenaren van verschillende organisaties ervaringen uitwisselen over AI-governance. Dit kan in de vorm van reguliere bijeenkomsten, online platforms of thematische communities (bijv. een community rond AI-ethiek in gemeenten). Financiële steun (subsidies, kleine innovatiebudgetten) en organisatorische steun zijn nodig om deze kennisnetwerken levensvatbaar te maken. Het resultaat is betere coördinatie en snellere leercurves: successen en fouten worden gedeeld, en men kan gezamenlijk optrekken richting hogere overheden voor richtlijnen of standaarden.
Creëer een cultuur van continue leren over AI-governance: Een actieve leercultuur binnen de overheid is essentieel om bij te blijven bij technologische en juridische ontwikkelingen. Organiseer regelmatig workshops, seminars of masterclasses voor zowel management als uitvoerende teams over onderwerpen als “ethisch verantwoord AI ontwerpen” of “AI en de AVG”. Ontwikkel praktische toolkits met best practices die voor iedereen toegankelijk zijn. Bijvoorbeeld, een handleiding voor het uitvoeren van een AI-impactassessment, of voorbeeldrichtlijnen voor transparantie bij algoritmen. Door dit soort kenniscontinuïteit in te bedden, blijft de organisatie wendbaar en bewust van nieuwe risico’s en oplossingen. Juridische teams zouden bovendien proactief moeten deelnemen aan dergelijke leerinitiatieven, zodat ze de nieuwste inzichten opdoen over hoe je AI binnen de regels kunt toepassen.
Betrek stakeholders bij AI-projecten van meet af aan: Zorg dat bij elk AI-project relevante stakeholders – burgers, experts, maatschappelijke organisaties en natuurlijk de eindgebruikers – een rol krijgen in ontwerp en toetsing. Dit kan via inspraakavonden, burgerpanels, expertreviews of co-creatie sessies. Verplicht desnoods intern dat er een stakeholderanalyse en -consultatie gebeurt bij nieuwe AI-initiatieven. Door stakeholders “in de loop” te houden, vergroot je transparantie en publiek vertrouwen. Tegelijk kunnen vroege signalen van zorgen (privacy, ethiek) worden meegenomen, wat juridische problemen achteraf voorkomt. Beleidsmakers doen er goed aan om formele kaders te scheppen voor deze participatie (bijvoorbeeld richtlijnen voor burgerdeelname bij AI in publieke diensten). Juristen kunnen ondersteunen door toe te zien op duidelijke communicatie over wat een AI-systeem wel en niet doet, zodat burgers hun rechten kennen en weten waar ze terechtkunnen met vragen of bezwaren.
Deze aanbevelingen komen neer op een proactieve en integrale aanpak: mensen opleiden, kennis delen, talent binnenhalen, samenwerken over organisatiegrenzen, continu leren, en de maatschappij betrekken. Voor zowel beleidsmakers als juristen betekent dit dat zij een voortrekkersrol moeten pakken in het vormgeven van deze randvoorwaarden. Hoewel dit inspanning vergt, leggen deze maatregelen de basis voor een verantwoorde en succesvolle inzet van AI in publieke diensten.
Conclusie
AI belooft veel voor de publieke sector, maar die belofte komt niet automatisch tot wasdom. Zonder de juiste competenties bij ambtenaren en zonder gedegen governance loopt men het risico op mislukkende projecten, juridische complicaties of verlies van publieke waarden. Het JRC-rapport onderstreept dat investeren in mensen, structuren en processen geen bijzaak is, maar een voorwaarde om waarde te creëren met AI in de overheid.
Voor juristen betekent dit alert zijn op nieuwe ontwikkelingen en samenwerken met technici om regels werkbaar te houden. Voor beleidsmakers betekent het visie tonen en de organisatie klaarstomen met training, richtlijnen en een cultuur van verantwoordelijkheid. De kernboodschap is optimistisch: met de juiste voorbereiding kan AI de publieke sector helpen om betere, efficiëntere en eerlijkere dienstverlening te bieden. Door nu te investeren in competenties en goede governance, zorgen we dat AI een hulpmiddel wordt dat in dienst staat van de samenleving, binnen de kaders van recht en ethiek. Dat is een vooruitzicht waar zowel techneuten, juristen als beleidsmakers gezamenlijk hun schouders onder kunnen zetten.