AI en politiewerk: zeven urgente uitdagingen
Voor iedereen met aandacht voor AI en algoritmes in het politiewerk verscheen onlangs het rapport Navigeren in Niemandsland van de Wetenschappelijke Adviesraad Politie (WARP). De ondertitel – Zeven urgente uitdagingen rondom digitalisering en AI in politiewerk – laat weinig aan de verbeelding over. De boodschap is duidelijk: zonder duidelijke kaders en visie loopt de politie het risico maatschappelijke en juridische grenzen te overschrijden bij het gebruik van datagedreven technologie.
AI biedt ongekende mogelijkheden voor het verbeteren van efficiëntie, het opsporen van criminaliteit en het versterken van de informatiepositie. Maar de inzet van AI binnen het politiewerk kan ook leiden tot nieuwe ethische dilemma’s, onrechtvaardige uitkomsten en verlies van vertrouwen onder burgers. De WARP legt precies deze spanningen bloot en doet acht concrete aanbevelingen voor koerscorrectie.
Deze blog neemt de lezer mee langs de kernpunten uit het rapport. We bespreken de achterliggende zorgen, maar ook de kansen. Wat staat er op het spel, en welke richting kan de politie inslaan om technologie verantwoord en rechtvaardig in te zetten?
Van digitalisering naar disruptie
De politie werkt al decennialang met data. Historisch gezien begon dit met het registreren van vingerafdrukken en foto's van verdachten. In de jaren '90 leidde digitalisering tot een versnelling van dataverzameling en standaardisatie van werkprocessen. De laatste jaren zien we dat AI-systemen in staat zijn om zelfstandig te leren van data en daarmee patronen te herkennen die voorheen verborgen bleven.
Deze ontwikkeling markeert een overgang van traditionele digitalisering naar wat de WARP aanduidt als disruptieve technologie. AI-systemen kunnen niet alleen ondersteunen, maar ook autonoom beslissingen nemen of voorspellingen doen. Denk aan risicotaxaties of het aanwijzen van locaties met een verhoogde kans op criminaliteit. Dat biedt mogelijkheden, maar ook dilemma's: wie is verantwoordelijk als het algoritme zich vergist?
Het is belangrijk om te begrijpen dat AI niet neutraal is. De systemen worden gevoed met data die afkomstig zijn uit de werkelijkheid, maar die werkelijkheid is vaak niet vrij van vooroordelen. Als er sprake is van structurele discriminatie in de data, dan wordt die automatisch gereproduceerd door de technologie. Dit kan leiden tot ongelijke behandeling, juist op plekken waar rechtvaardigheid en gelijkheid essentieel zijn.
Daarom vraagt de inzet van AI om meer dan technische kennis alleen. Het vereist een diepgaand inzicht in de maatschappelijke context waarin de technologie wordt gebruikt. De politie functioneert in het hart van de samenleving, waar elke beslissing impact heeft op mensenlevens. AI kan helpen bij het verbeteren van processen, maar mag nooit het menselijke oordeel vervangen dat geborgd is in onze rechtsstaat.
Urgent probleem: het ontbreken van wetgeving
Een van de centrale observaties in het rapport van de WARP is het ontbreken van een adequaat wettelijk kader voor datagedreven werken. In de huidige praktijk is er een harde scheiding tussen het verzamelen en het verwerken van data, zoals vastgelegd in het Wetboek van Strafvordering en de Wet politiegegevens. Deze juridische structuur sluit niet aan bij de realiteit van moderne AI-systemen, die juist continu schakelen tussen vergaring en verwerking.
De afwezigheid van duidelijke regelgeving zorgt voor rechtsonzekerheid, zowel binnen de politieorganisatie als daarbuiten. Voor politiefunctionarissen betekent dit dat zij onvoldoende houvast hebben in hun dagelijkse praktijk. Zij kunnen moeilijk inschatten wat wel en niet mag, zeker wanneer zij werken met nieuwe, experimentele technologieën. Dit belemmert niet alleen innovatie, maar vergroot ook de kans op fouten en misstanden.
Voor burgers is het gebrek aan wetgeving eveneens problematisch. Het leidt tot onduidelijkheid over hun rechten en over de grenzen van wat de politie met hun data mag doen. In een tijd waarin digitale surveillance steeds normaler wordt, is het essentieel dat burgers kunnen vertrouwen op duidelijke regels en effectief toezicht. Alleen dan kan hun recht op privacy en bescherming tegen willekeurige overheidsinmenging voldoende worden gewaarborgd.
De WARP pleit daarom voor het instellen van een onafhankelijke evaluatiecommissie voor de Wet politiegegevens. Deze commissie moet niet alleen de bestaande wetgeving onder de loep nemen, maar ook adviseren over de noodzaak tot herziening. Daarbij is het van belang dat toezicht plaatsvindt over de volle breedte van het datagebruik: van de eerste gegevensverzameling tot en met het gebruik van AI-systemen in de uitvoering. Dat is essentieel om legitimiteit en rechtsstatelijke verankering te waarborgen.
Een ELSA-raamwerk voor verantwoorde innovatie
Een andere belangrijke aanbeveling van de WARP betreft de ontwikkeling van een overkoepelend ELSA-raamwerk. ELSA staat voor Ethical, Legal and Societal Aspects, oftewel de ethische, juridische en maatschappelijke dimensies van technologische innovatie. Dit raamwerk moet als leidraad dienen bij elke stap in het innovatieproces, van idee tot implementatie. Alleen door deze aspecten structureel mee te nemen, kan AI verantwoord worden ingezet binnen het politiewerk.
Binnen de politie zijn er al initiatieven gestart om ethiek meer ruimte te geven. Zo bestaan er ethiektafels en wordt bij sommige projecten vooraf nagedacht over morele dilemma’s. Toch blijft het vaak bij losse initiatieven die niet met elkaar verbonden zijn. Een structureel en centraal ELSA-raamwerk kan zorgen voor samenhang, continuïteit en borging van waarden als transparantie, proportionaliteit en non-discriminatie.
De maatschappelijke component van ELSA vraagt ook om de inbreng van burgers, maatschappelijke organisaties en wetenschappers. Het gaat erom dat technologie niet alleen door experts, maar ook in dialoog met de samenleving wordt ontwikkeld. Dit vergroot het draagvlak en maakt het mogelijk om verschillende perspectieven in het ontwerp en gebruik van AI-toepassingen te integreren. Daarbij moet het uitgangspunt zijn: technologie in dienst van publieke waarden, niet andersom.
Actieve transparantie is daarbij essentieel. De standaard moet zijn: openbaar, tenzij. Burgers moeten weten welke technologieën worden ingezet, waarom dat gebeurt, en wat de verwachte effecten zijn. Alleen met duidelijke communicatie, inzicht in algoritmes en toegankelijke informatie over beleid en besluitvorming, kan het vertrouwen worden behouden of hersteld. Transparantie is geen luxe, maar een democratisch fundament voor verantwoord gebruik van AI in de politiepraktijk.
Private partijen: partner of risico?
De politie kan bij het ontwikkelen en implementeren van AI-toepassingen niet om samenwerking met private partijen heen. Veel technologieën die nodig zijn voor datagedreven werken worden immers ontwikkeld buiten de overheid, vaak door grote technologiebedrijven. Deze samenwerking kan voordelen opleveren, zoals toegang tot geavanceerde kennis, infrastructuur en innovatieve denkkracht. Tegelijkertijd stelt het rapport van de WARP terecht dat deze afhankelijkheid gepaard gaat met aanzienlijke risico’s.
Een van de grootste risico’s is verlies van controle. Wanneer essentiële onderdelen van het politiewerk worden uitbesteed aan commerciële partijen, dreigt de kennis en expertise over deze technologieën buiten de organisatie te komen liggen. Dit kan leiden tot zogeheten ‘vendor lock-in’, waarbij de politie feitelijk vastzit aan één leverancier omdat overstappen naar een andere aanbieder te ingewikkeld of kostbaar is. Hierdoor verliest de politie de mogelijkheid om zelf koers te bepalen in haar digitale strategie.
Daarnaast is er het risico dat private partijen andere belangen nastreven dan publieke instellingen. Waar de politie wordt geacht te opereren vanuit publieke waarden zoals rechtsgelijkheid, transparantie en het beschermen van grondrechten, zijn commerciële bedrijven in eerste instantie gericht op winstmaximalisatie. Deze botsende waarden kunnen problematisch zijn, zeker als het gaat om gevoelige toepassingen zoals gezichtsherkenning of gedragsanalyse. Zonder duidelijke afspraken is het gevaar groot dat publieke belangen ondergeschikt raken aan commerciële doelen.
Het rapport pleit daarom voor het ontwikkelen van een toetsingskader dat richting geeft aan samenwerkingen met private partijen. Dit kader moet niet alleen duidelijkheid bieden over de juridische en ethische voorwaarden waaronder samenwerking mogelijk is, maar ook eisen stellen aan kennisdeling, transparantie en controlemechanismen. Daarbij moet nadrukkelijk gekeken worden naar de herkomst van technologieën en de invloed van geopolitieke verhoudingen op digitale soevereiniteit. Alleen zo kan de politie zelfstandig, verantwoord en toekomstgericht opereren in het digitale domein.
Datahuishouding: van chaos naar controle
Een robuuste datahuishouding is de ruggengraat van iedere organisatie die serieus werk wil maken van datagedreven werken en AI. Voor de politie is dit niet anders. Toch blijkt uit het WARP-rapport dat de huidige staat van de datahuishouding binnen de politie grote tekortkomingen kent. Zo is er sprake van een gebrek aan standaardisatie, transparantie en traceerbaarheid van data. Data worden regelmatig op onjuiste grondslagen verwerkt, te laat verwijderd of zijn eenvoudigweg niet te herleiden naar hun bron. Dit vormt niet alleen een risico op het gebied van privacy en gegevensbescherming, maar ondermijnt ook de betrouwbaarheid van AI-toepassingen.
Het correct en rechtmatig verwerken van data vereist een strakke regie. In de praktijk blijkt dat data binnen de politie vaak worden opgeslagen in gescheiden systemen, verspreid over verschillende afdelingen en regio's. Hierdoor is er weinig overzicht over welke datasets bestaan, wie er toegang toe heeft en met welk doel ze worden gebruikt. Dit gebrek aan centrale coördinatie maakt het moeilijk om de integriteit, actualiteit en juistheid van data te waarborgen. Bovendien belemmert het een efficiënte en veilige toepassing van AI, die juist gebaat is bij hoogwaardige, goed gestructureerde en toegankelijke datasets.
De WARP adviseert daarom de ontwikkeling van een centrale governance-structuur voor data en AI binnen de politieorganisatie. Deze structuur moet niet alleen toezien op naleving van wet- en regelgeving, maar ook sturen op kwaliteit, interoperabiliteit en verantwoording. Concreet betekent dit onder meer het opstellen van een datacatalogus die inzicht geeft in beschikbare datasets, en een algoritmeregister dat publiekelijk inzichtelijk maakt welke algoritmes worden gebruikt, met welk doel en onder welke voorwaarden. Een dergelijke aanpak maakt het mogelijk om de inzet van AI op een transparante, controleerbare en maatschappelijk verantwoorde manier vorm te geven.
Tenslotte benadrukt het rapport het belang van het tegengaan van zogenoemde "shadow-AI": het gebruik van AI-toepassingen door individuele medewerkers buiten formele structuren om. Dit gebeurt vaak met de beste bedoelingen – bijvoorbeeld om efficiënter te werken – maar het brengt aanzienlijke risico’s met zich mee. Zonder toetsing en monitoring is er geen garantie dat deze toepassingen voldoen aan juridische en ethische normen. Het onder controle brengen van deze praktijk vereist niet alleen technische maatregelen, maar ook een organisatiecultuur waarin data-integriteit en AI-geletterdheid centrale waarden zijn. Dat vraagt om opleiding, duidelijke kaders én leiderschap.
Geen ‘predictive policing’ op persoonsniveau
Een van de meest indringende aanbevelingen van de WARP betreft het publiekelijk afzweren van zogeheten predictive policing op individueel niveau. Hiermee wordt bedoeld dat de politie met behulp van algoritmes probeert te voorspellen of een individu in de toekomst strafbare feiten zal plegen. Hoewel dit technologisch steeds beter mogelijk lijkt, stelt de Raad dat de maatschappelijke en juridische risico’s veel te groot zijn. Dit soort toepassingen kunnen leiden tot stigmatisering, discriminatie en een ernstige ondermijning van het rechtsstatelijk principe dat iemand pas schuldig is na bewezen verklaring van een strafbaar feit.
Het voorspellen van individueel gedrag op basis van statistische correlaties is geen neutrale handeling. Zelfs wanneer een algoritme ogenschijnlijk objectieve kenmerken gebruikt, kunnen de uitkomsten disproportioneel uitpakken voor bepaalde bevolkingsgroepen. Denk bijvoorbeeld aan het gebruik van postcode, opleidingsniveau of eerdere politiecontacten als voorspellers. Deze variabelen hangen vaak samen met sociale achterstand, wat ertoe leidt dat bestaande ongelijkheden worden versterkt in plaats van doorbroken. Dat tast niet alleen het vertrouwen in de politie aan, maar schaadt ook het principe van gelijke behandeling.
De inzet van AI mag volgens de WARP alleen plaatsvinden wanneer dit plaatsvindt binnen duidelijke wettelijke kaders, met transparante toetsingscriteria en onder waarborging van menselijke controle. Predictive policing op persoonsniveau voldoet daar niet aan. Bovendien ontbreekt op dit moment het empirisch bewijs dat dergelijke systemen daadwerkelijk bijdragen aan het voorkomen van criminaliteit. In plaats daarvan leiden ze vaak tot een overpolicing van bepaalde wijken of groepen, wat het draagvlak voor de politie juist verzwakt.
De Raad stelt daarom voor dat de politie expliciet en publiekelijk aangeeft geen ambitie te hebben om individuele burgers preventief als potentiële daders aan te merken op basis van AI-analyses. Dit is niet alleen een signaal richting de samenleving, maar ook een richtsnoer voor de interne organisatie. Door duidelijk grenzen te stellen aan wat AI wel en niet mag, wordt voorkomen dat technologie op termijn uitgroeit tot een instrument dat zich onttrekt aan democratische controle en ethische normen. Alleen zo blijft het politiewerk verbonden met de kernwaarden van de rechtsstaat.
Digitale geletterdheid als basisvaardigheid
De integratie van AI in het politiewerk stelt nieuwe eisen aan de vaardigheden van medewerkers. Het is niet langer voldoende om alleen operationele kennis te hebben van politiële processen. Medewerkers moeten ook begrijpen hoe algoritmes werken, welke aannames eraan ten grondslag liggen en welke risico’s ermee gepaard gaan. Deze digitale geletterdheid is essentieel om technologie kritisch, veilig en effectief te kunnen gebruiken in het dagelijkse werk. De WARP pleit er dan ook voor om deze vaardigheid te beschouwen als een basisvereiste binnen de organisatie.
Digitale geletterdheid betekent meer dan alleen weten hoe je een systeem bedient. Het gaat ook om het kunnen inschatten van de betrouwbaarheid van uitkomsten, het herkennen van bias in data en het durven stellen van kritische vragen bij technologische toepassingen. Dit vraagt om een leercultuur waarin ruimte is voor reflectie, feedback en continue bijscholing. Het investeren in AI-opleidingen en ethische bewustwording is dan ook geen luxe, maar een noodzakelijke voorwaarde voor professioneel en verantwoord politiewerk.
Daarnaast moet AI-geletterdheid niet beperkt blijven tot een selecte groep specialisten binnen de organisatie. Juist de bredere groep van politiemedewerkers, van wijkagent tot rechercheur, moet beschikken over basiskennis van hoe AI-systemen hun werk beïnvloeden. Alleen dan kan er sprake zijn van een gedeeld verantwoordelijkheidsgevoel en een effectieve dialoog tussen techniek, beleid en uitvoering. Het rapport onderstreept dan ook het belang van inclusieve scholingstrajecten en interdisciplinaire samenwerking.
Tenslotte is het belangrijk dat digitale geletterdheid ook wordt erkend en beloond binnen HR-beleid en carrièrepaden. Door AI-vaardigheden expliciet mee te nemen in functieprofielen en ontwikkelgesprekken, ontstaat er structurele aandacht voor dit thema. Dit voorkomt dat kennis incidenteel blijft en zorgt ervoor dat AI duurzaam wordt ingebed in het professionele ethos van de politie. Zo groeit de organisatie mee met de technologische ontwikkelingen, zonder haar maatschappelijke opdracht uit het oog te verliezen.
Slotbeschouwing: visie, verantwoording en vertrouwen
Het rapport Navigeren in Niemandsland eindigt met een krachtige oproep: technologie mag geen doel op zich zijn, maar moet bijdragen aan publieke waarden. De politie staat op een kruispunt waarbij keuzes gemaakt moeten worden die diep ingrijpen in het dagelijks werk, de relatie met burgers en het maatschappelijke vertrouwen. In een tijd van snelle technologische ontwikkeling is het verleidelijk om mee te bewegen met wat technisch mogelijk is. Maar de vraag die steeds moet worden gesteld, is: draagt dit bij aan rechtvaardig en verantwoord politiewerk?
Verantwoording betekent niet alleen transparant zijn over het gebruik van AI, maar ook actief uitleggen waarom bepaalde keuzes zijn gemaakt – en welke waarden daarbij zijn gewogen. De inzet van AI mag nooit een black box zijn. Burgers moeten kunnen vertrouwen op een politie die niet alleen effectief, maar ook rechtvaardig en zorgvuldig is. Dit vereist structurele investeringen in toezicht, ethiek en opleiding, maar vooral ook in leiderschap dat het goede voorbeeld geeft.
De WARP heeft met haar rapport een fundament gelegd voor een bredere maatschappelijke discussie over de rol van AI in het publieke domein. De politie staat daarin niet alleen. Ook andere overheidsorganisaties, toezichthouders en de politiek zullen hun positie moeten bepalen. Samenwerking is daarbij cruciaal: tussen techniek en praktijk, tussen beleid en uitvoering, en bovenal tussen overheid en samenleving.
Tot slot: de toekomst van AI in het politiewerk ligt niet vast. Zij wordt dagelijks vormgegeven door de keuzes van mensen – politiemensen, beleidsmakers, wetgevers en burgers. Door te kiezen voor visie, verantwoording en vertrouwen, kunnen we AI inzetten als instrument van recht en verbinding in plaats van als risico en verdeeldheid. Dat is de opdracht waarvoor we staan – en het kompas dat Navigeren in Niemandsland ons aanreikt.