Een topjournalist trapte in de AI-val
Peter Vandermeersch, oud-hoofdredacteur van NRC en fellow Journalism & Society bij Mediahuis, is tijdelijk geschorst. De reden: hij gebruikte AI voor het schrijven van nieuwsbrieven en vertrouwde blindelings op de output. Het resultaat? Verzonnen citaten. Mensen kregen woorden in de mond gelegd die ze nooit hadden gezegd. Het pijnlijke: Vandermeersch waarschuwde collega's jarenlang zelf voor precies dit gevaar.
Hallucinaties herken je niet op het eerste gezicht
Vandermeersch gebruikte AI om rapporten samen te vatten en bouwde daar zijn teksten op. Het probleem: de samenvattingen bevatten zogenaamde hallucinaties. Zinnen die er betrouwbaar uitzien, maar volledig door het taalmodel zijn verzonnen. Inclusief citaten van echte personen.
Dit is geen randverschijnsel. Het is een kernprobleem van grote taalmodellen. Ze produceren tekst die grammaticaal perfect is, inhoudelijk overtuigend klinkt, en toch feitelijk onjuist kan zijn. Juist professionals met ervaring en domeinkennis zijn vatbaar. Waarom? Omdat de output er zo geloofwaardig uitziet dat je controlereflex uitvalt.
Ervaring beschermt je niet
Dat is misschien de belangrijkste les uit deze zaak. Vandermeersch is geen beginner. Hij is een journalist met decennia ervaring, die zelf presentaties gaf over de risico's van AI. En toch ging het mis.
Dat patroon is herkenbaar. Hoe meer je weet van een onderwerp, hoe sneller je geneigd bent om AI-output te vertrouwen. De samenvatting klinkt aannemelijk. De citaten passen bij wat je verwacht. En dus ga je verder zonder te checken. Dat is precies het moment waarop het misgaat.
Voor juristen, beleidsmakers, onderzoekers en andere kenniswerkers die dagelijks met complexe teksten en bronnen werken, is dit een directe waarschuwing. Vertrouwen op je ervaring is geen vervanging voor verificatie.
"Human oversight" is geen slogan
Vandermeersch zei het zelf: "De broodnodige human oversight, waarvoor ikzelf voortdurend pleit, schoot tekort." Eerlijk. Maar ook veelzeggend.
Human oversight betekent niet dat je de output van AI even scant en denkt: "Ziet er goed uit." Het betekent dat je elk feit verifieert. Elke verwijzing controleert. Elke samenvatting naast de bron legt. Dat kost tijd. Maar die tijd bespaar je alsnog, want de output van AI geeft je een voorsprong. Alleen moet je die voorsprong gebruiken om te controleren, niet om sneller op "verzenden" te drukken.
Concreet: maak verificatie een vaste stap in je werkproces. Niet als aanbeveling, maar als eis. Leg vast hoe AI wordt ingezet, wie de output controleert en wat er gebeurt als die controle niet plaatsvindt. Dat geldt voor redacties, maar net zo goed voor juridische teams, adviesbureaus en elke organisatie waar teksten consequenties hebben.
Transparantie is niet optioneel
Het tweede pijnpunt: Vandermeersch wist op een gegeven moment dat citaten niet klopten, maar corrigeerde ze niet zelf. NRC deed dat uiteindelijk voor hem.
Dat is een patroon dat je vaker ziet. De fout is niet het gebruik van AI. De fout is het verzwijgen ervan als het misgaat. Transparantie over AI-gebruik is geen zwakte. Het is professionaliteit. Leg vast wanneer en hoe AI wordt ingezet in je organisatie. Communiceer daar open over. Het is beter om voorop te lopen dan om achteraf uit te moeten leggen wat er misging.
De les is helder
AI is een krachtig hulpmiddel. Maar krachtige hulpmiddelen vragen om discipline. De zaak-Vandermeersch laat zien dat zelfs ervaren professionals met de beste intenties in de val trappen als ze de controle loslaten.
Gebruik AI. Experimenteer ermee. Maar zorg dat je weet hoe het verantwoord moet. Dat begint bij beleid, training en duidelijke afspraken over verificatie.