Hoe politieagenten omgaan met een real-time AI-geweldsdetectiesysteem
De inzet van AI in het politiewerk wordt vaak gepresenteerd als een logische stap in de modernisering van handhaving en toezicht. Real-time analyse van camerabeelden, automatische detectie van geweld en snelle signalering van risico’s zouden bijdragen aan effectievere en snellere interventies. Tegelijkertijd roept deze ontwikkeling fundamentele vragen op over verantwoordelijkheid, toezicht en juridische verantwoording.
In een recent verschenen artikel in de European Journal of Policing Studies onderzoeken Martijn Wessels, Marc Schuilenburg en René van Swaaningen hoe deze vragen in de dagelijkse praktijk uitwerken. Hun studie richt zich niet op de techniek zelf, maar op de manier waarop politieprofessionals omgaan met een real-time AI-systeem voor geweldsdetectie in de openbare ruimte. De centrale vraag: hoe ervaren politieagenten hun verantwoordelijkheid wanneer AI onderdeel wordt van hun werkproces?
Van systeemverantwoordelijkheid naar ‘felt accountability’
Het onderzoek vertrekt vanuit het concept algorithmic accountability: de vraag hoe beslissingen en handelingen die (mede) door algoritmen worden ondersteund, verantwoord kunnen worden. In beleidsstukken en regelgeving – waaronder de AI Act – wordt vaak uitgegaan van het idee dat menselijke betrokkenheid (“human in the loop”) voldoende is om verantwoordelijkheid te borgen. De praktijk blijkt echter weerbarstiger.
Wessels en collega’s introduceren het begrip felt accountability: de mate waarin professionals zich daadwerkelijk verantwoordelijk voelen voor bepaald handelen. Dat gevoel van verantwoordelijkheid blijkt sterk contextafhankelijk en wordt in hoge mate gevormd door bestaande professionele normen, informele werkculturen en onderlinge verhoudingen.
Ethnografisch onderzoek in de politiedagpraktijk
De studie is gebaseerd op diepgaand etnografisch onderzoek binnen een regionale digitale surveillanceseenheid van de Nederlandse politie. De onderzoekers verrichtten circa 145 uur aan observaties en hielden 18 interviews met surveillancemedewerkers, leidinggevenden en de product owner van het AI-systeem.
Het onderzochte systeem analyseert camerabeelden in real time en genereert meldingen wanneer fysiek geweld wordt vermoed. Die meldingen verschijnen op een aparte monitor en via visuele signalen op de werkplekken van agenten. De verwachting is dat agenten deze signalen beoordelen en – indien nodig – opvolgen.
Drie werkstijlen, één patroon
Uit het onderzoek komen drie dominante werkstijlen naar voren, die elk op een andere manier omgaan met AI-meldingen:
De ‘hunters’
Deze agenten zoeken actief naar incidenten en zien het politiewerk als het signaleren en afronden van concrete zaken. Zij staan het meest open voor AI-ondersteuning, maar ook bij hen geldt dat AI-meldingen structureel ondergeschikt zijn aan lopende zaken of directe verzoeken van collega’s.De ‘investigators’
Deze groep richt zich vooral op reconstructie en bewijsverzameling achteraf. Hun aandacht gaat uit naar het analyseren van camerabeelden in het kader van bestaande onderzoeken. Real-time AI-meldingen worden vaak pas bekeken nadat ander werk is afgerond.De ‘system keepers’
Deze agenten opereren primair reactief en zien hun rol vooral als ondersteunend aan collega’s in het veld of de meldkamer. Zij ervaren weinig meerwaarde in AI-geweldsdetectie en reageren doorgaans traag of helemaal niet op meldingen.
Hoewel de werkstijlen verschillen, is de uitkomst opvallend consistent: AI-meldingen krijgen structureel lage prioriteit.
Waarom AI buiten de verantwoordelijkheid valt
De onderzoekers identificeren vier samenhangende verklaringen voor deze beperkte rol van AI in het verantwoordelijkheidsgevoel van agenten.
1. Menselijke relaties zijn doorslaggevend
Agenten voelen zich primair verantwoordelijk tegenover collega’s: de meldkamer, straatagenten en andere afdelingen. Een verzoek van een collega weegt zwaarder dan een signaal van een systeem. Een AI-melding is geen ‘vraag’, geen menselijke interactie, en kan daardoor makkelijker genegeerd worden.
2. Onzekerheid over de betrouwbaarheid van AI-meldingen
Veel meldingen blijken vals-positief: dansende mensen, spelende kinderen of onduidelijke bewegingen. Deze ervaringen ondermijnen het vertrouwen in het systeem. Omdat agenten hun professionele legitimiteit ontlenen aan tastbare resultaten, schuurt de abstracte en vaak onnauwkeurige aard van AI-meldingen met hun werkethos.
3. Beperkte AI-kennis en transparantie
Agenten hebben weinig inzicht in hoe het systeem werkt, welke camera’s zijn aangesloten en hoe betrouwbaar de detecties zijn. Die beperkte AI-geletterdheid bemoeilijkt eigenaarschap en verantwoordelijkheid. Zonder begrip van het systeem ontstaat geen gevoel van verantwoordelijkheid voor het gebruik – of niet-gebruik – ervan.
4. Ontbreken van formele governance en toezicht
Het AI-systeem is niet ingebed in bestaande verantwoordingsstructuren. Er zijn geen duidelijke richtlijnen, geen verwachtingen over responstijden en geen consequenties verbonden aan het negeren van meldingen. Daarmee blijft AI een parallel systeem, los van de kernprocessen en zonder expliciete verantwoordingsplicht.
Juridische en governance-implicaties
De bevindingen zijn juridisch relevant, juist in het licht van de Europese AI-regelgeving. De AI Act benadrukt menselijke controle, toezicht en AI-geletterdheid, maar deze studie laat zien dat formele vereisten niet automatisch leiden tot daadwerkelijke verantwoordelijkheid in de praktijk.
Het onderzoek stelt impliciet de vraag of het klassieke human in the loop-model voldoende is. Wanneer professionals wel de bevoegdheid hebben om AI-uitkomsten te negeren, maar daar geen enkele verantwoordingsplicht tegenover staat, ontstaat een grijs gebied. Accountability betekent immers niet alleen kunnen ingrijpen, maar ook verantwoorden waarom dat wel of niet gebeurt.
Lessen voor AI-implementatie in de publieke sector
Hoewel het onderzoek zich richt op de politie, zijn de conclusies breder toepasbaar. Voor organisaties die AI inzetten in toezicht, handhaving of besluitvorming, volgen enkele duidelijke lessen:
AI moet expliciet worden geïntegreerd in bestaande governance- en verantwoordingsstructuren.
Rollen, verwachtingen en verantwoordelijkheden rond AI-gebruik moeten concreet worden vastgelegd.
AI-geletterdheid is geen eenmalige training, maar een continu proces.
Verantwoordelijkheid ziet niet alleen op het volgen van AI-uitkomsten, maar ook op het bewust negeren ervan.
Tot slot
Deze studie maakt duidelijk dat algorithmic accountability geen technisch probleem is dat kan worden opgelost met betere modellen of extra dashboards. Het is een organisatorisch, cultureel en juridisch vraagstuk. Zolang AI-systemen niet aansluiten bij de bestaande verantwoordingslogica van professionals, blijven zij buiten het domein van ‘echte’ verantwoordelijkheid vallen.
Voor juristen, beleidsmakers en AI-governance-specialisten biedt dit onderzoek waardevolle inzichten in de kloof tussen regelgeving en praktijk. Niet omdat de technologie faalt, maar omdat verantwoordelijkheid zich niet laat afdwingen door techniek alleen.