Ambtenaren krijgen meer ruimte voor gebruik van AI

De Nederlandse overheid heeft het beleid rondom het gebruik van generatieve kunstmatige intelligentie (AI) door ambtenaren verruimd. Met de publicatie van het 'Overheidsbreed standpunt voor de inzet van generatieve AI' op 22 april 2025 krijgen ambtenaren meer ruimte om generatieve AI toe te passen in hun werkzaamheden, zoals het versnellen van vergunningsaanvragen, het beantwoorden van vragen van burgers en ondernemers, en het efficiënter nemen van besluiten. Deze verruiming is bedoeld om de overheidsdienstverlening te verbeteren en maatschappelijke vraagstukken effectiever aan te pakken, mits dit gebeurt onder strikte voorwaarden en met de nodige voorzorgsmaatregelen.

Verruiming van het beleid

Op 22 april 2025 publiceerde de Rijksoverheid het 'Overheidsbreed standpunt voor de inzet van generatieve AI'. Hierin wordt aangegeven dat ambtenaren generatieve AI mogen inzetten om processen te versnellen, zoals het behandelen van vergunningsaanvragen of het beantwoorden van vragen van burgers en ondernemers. Dit moet echter altijd gebeuren met inachtneming van duidelijke voorwaarden, waaronder het uitvoeren van risicoanalyses en het gebruik van betrouwbare AI-modellen.

Voorwaarden en risicoanalyses

Het gebruik van generatieve AI door overheidsmedewerkers is gebonden aan specifieke voorwaarden. Voordat een AI-toepassing wordt ingezet, moet een gedegen risicoanalyse worden uitgevoerd. Deze analyse moet onder andere de juridische, ethische en veiligheidsaspecten van de toepassing in kaart brengen. Daarnaast moeten er afspraken worden gemaakt met leveranciers over het gebruik van de AI-modellen, en moeten de juiste rollen binnen de organisatie betrokken zijn bij het besluitvormingsproces.

Verplichte trainingen en AI-geletterdheid

Om ervoor te zorgen dat ambtenaren verantwoord en effectief met generatieve AI kunnen werken, worden trainingen op het gebied van AI-geletterdheid verplicht gesteld. Deze trainingen zijn bedoeld om medewerkers te informeren over het gebruik van generatieve AI en de bijbehorende risico's. De RijksAcademie voor Digitalisering en Informatisering Overheid (RADIO) ontwikkelt diverse opleidingen om aan deze behoefte te voldoen. Het doel is om de basisvaardigheden op het gebied van AI binnen de overheid te versterken.

Verbod op ongecontroleerd gebruik van consumenten-AI

Het nieuwe beleid verbiedt overheidsmedewerkers om generatieve AI-toepassingen voor consumenten te gebruiken zonder dat er vooraf afspraken zijn gemaakt met de leveranciers via een Data Protection Impact Assessment (DPIA). Dit verbod is bedoeld om de privacy en veiligheid van gegevens te waarborgen. Het gebruik van consumenten-AI zonder de juiste voorzorgsmaatregelen kan leiden tot ongewenste risico's, zoals datalekken of schendingen van de privacywetgeving.

AI-fabriek en experimenten

Om innovatie met AI binnen de overheid te stimuleren, is eerder een AI-testfaciliteit aangekondigd, die inmiddels is hernoemd tot AI-fabriek. Deze faciliteit valt onder de verantwoordelijkheid van het ministerie van Economische Zaken. Verschillende overheidsorganisaties voeren momenteel experimenten uit met generatieve AI. Zo gebruikt de gemeente Amsterdam generatieve AI om bezwaarschriften sneller te behandelen, en hebben de provincie Zuid-Holland, Defensie en Justitie eigen toepassingen ontwikkeld. TNO is gevraagd om deze ontwikkelingen te evalueren.

Toezicht en naleving

Het overheidsbrede standpunt benadrukt dat overheidsorganisaties primair zelf verantwoordelijk zijn voor de naleving van de richtlijnen omtrent generatieve AI. Zij zijn verplicht intern toezicht te organiseren en moeten bij twijfel of complexe risico's externe toezichthouders, zoals de Autoriteit Persoonsgegevens, inschakelen. Er wordt gewerkt aan een nationale toezichtstructuur die aansluit op de Europese AI-verordening, die op 2 augustus van kracht wordt.

Voorkeur voor Europese AI-oplossingen

De overheid moedigt het gebruik van in Europa ontwikkelde AI-toepassingen en open-source oplossingen aan. Dit is bedoeld om de afhankelijkheid van niet-Europese technologieën te verminderen en de controle over data en algoritmes te behouden. Het gebruik van Europese alternatieven draagt bij aan de bescherming van publieke waarden en de versterking van de digitale soevereiniteit van de overheid.

Conclusie

Met de verruiming van het beleid rondom generatieve AI krijgen ambtenaren meer mogelijkheden om deze technologie in te zetten voor het verbeteren van de overheidsdienstverlening. Dit gebeurt onder strikte voorwaarden, waaronder verplichte trainingen, risicoanalyses en toezicht op het gebruik. Door te kiezen voor Europese AI-oplossingen en het verbod op ongecontroleerd gebruik van consumenten-AI, streeft de overheid naar een verantwoorde en veilige inzet van generatieve AI binnen de publieke sector.

Vorige
Vorige

Nieuwe OpenAI-modellen hallucineren meer

Volgende
Volgende

AP: kom nu in actie als je niet wil dat Meta AI traint met jouw data