Je team wil geen AI. En dat is logischer dan je denkt.

Er is een studie die elke leidinggevende zou moeten kennen. Een onderzoekslab voerde AI in. De productiviteit steeg. Het werkplezier stortte in.

Joris Krijger, AI-ethicus bij ASN Bank en onderzoeker aan de Erasmus Universiteit, bracht dit voorbeeld in tijdens het rondetafelgesprek over AI-kansen in de Tweede Kamer op 26 maart 2026. De reden? AI nam precies dat deel van het werk over waar de onderzoekers hun identiteit aan ontleenden. Het deel waarvoor ze wetenschapper waren geworden.

Dat geldt niet alleen voor wetenschappers. Het geldt voor iedereen die kenniswerk doet.

Het identiteitsprobleem

Juristen worden geen jurist om samenvattingen te maken. Compliance officers worden geen compliance officer om checklists af te vinken. FG's worden geen FG om formulieren in te vullen. De kern van dit soort werk zit in het doorgronden van complexiteit, het vormen van een oordeel, het vinden van de crux.

AI kan veel van die taken sneller. Soms beter. Maar de vraag die Krijger stelt is niet of AI het kan, maar wat er overblijft voor de mens. En wie bepaalt wat er overblijft.

Kamerlid Zwinkels legde precies de juiste vraag op tafel: hoe zorgen we ervoor dat AI menswaardig is? Krijger antwoordde dat menswaardigheid zit in vier lagen: hoe de technologie is ontworpen, welke waarden erin zitten, waar het wordt ingezet en op welke manier. Maar ook in wie een stem heeft bij die keuzes.

Weerstand is geen onwil

Als een ervaren medewerker sceptisch is over AI, is de reflex vaak: die moet worden meegenomen. Er volgt een training. Een uitnodiging om "open te staan voor verandering."

Maar misschien is die weerstand een signaal. Krijger verwijst naar het werk van Nobelprijswinnaar Daron Acemoglu, die laat zien dat technologische disrupties niet neutraal zijn. De winst komt vaak later. Het verlies komt eerst.

Het zijn juist de ervaren, inhoudelijk sterke professionals die het meest te verliezen hebben als AI hun kerntaken overneemt. Niet hun baan, maar hun voldoening.

Het nichtje en het persbericht

Nanda Piersma van de SER vertelde een veelzeggend verhaal. Haar nichtje werkt bij een commercieel bureau en kan zelf geen persbericht meer schrijven. Dat doet ChatGPT. "En als die het niet doet, dan heb ik een probleem."

Het klinkt als een anekdote. Het is een waarschuwing. Als je team volledig leunt op AI voor taken die ze voorheen zelf beheersten, verlies je iets wat moeilijk terug te krijgen is: vakmanschap.

Onno Eric Blom bevestigde in het tweede blok dat hetzelfde binnen de Rijksoverheid speelt. Medewerkers die stiekem ChatGPT gebruiken omdat er geen officieel beleid is. Blom noemde het het slechtste van alle werelden: geen controle, geen benutting van de echte mogelijkheden.

Probleemgericht in plaats van technologiegericht

De oplossing die tijdens het rondetafelgesprek meerdere keren naar voren kwam: begin bij het probleem. Erick Webbe van Kickstart AI zei het zo: "Zolang je mensen kunt scharen achter een probleem dat zij ook willen oplossen, kun je mensen meenemen." Krijger vulde aan dat het cruciaal is om medewerkers te betrekken bij de besluitvorming rond AI. Niet achteraf, maar vooraf.

Vraag je team niet om zich aan te passen aan de tool. Vraag je team welke taken ze graag kwijt zouden zijn. En welke taken ze voor geen goud uit handen geven. Daar zit het verschil tussen een AI-implementatie die werkt en een die weerstand oproept.

Dat gesprek begint niet bij technologie. Het begint bij mensen.

Wil je dat gesprek voeren? Plan een gesprek.

Vorige
Vorige

AI en rechtsbescherming: waarom technologie juridische expertise niet vervangt

Volgende
Volgende

Waarom bedrijfsjuristen sneller AI adopteren dan kantoren