Richtlijn voor AI-gebruik door gerechtelijk deskundigen
Op 7 april 2025 publiceerde het Landelijk Register van Gerechtelijke Deskundigen (LRGD) een richtlijn die het gebruik van AI-toepassingen reguleert door gerechtelijk deskundigen. Deze richtlijn is relevant voor juristen die werken met of vertrouwen op deskundigenrapporten, en bevat richtlijnen over vertrouwelijkheid, transparantie, verantwoordelijkheid en naleving van wetgeving bij gebruik van AI binnen gerechtelijk onderzoek.
Doel en reikwijdte van de richtlijn
De richtlijn is van toepassing op het gebruik van Artificial Intelligence (AI), waaronder generatieve AI en Large Language Models (LLMs), door gerechtelijk deskundigen – zowel algemeen als specifiek voor deskundigen geregistreerd bij het LRGD. AI mag uitsluitend ondersteunend worden ingezet. Het volledige deskundigenonderzoek laten uitvoeren door een AI-toepassing is nadrukkelijk niet toegestaan. De verantwoordelijkheid voor het gebruik ligt volledig bij de deskundige; het LRGD is niet aansprakelijk.
Eisen aan kennis en vaardigheden
De deskundige dient voldoende kennis te hebben van de werking, risico’s en toepassingsmogelijkheden van de gebruikte AI-tools. Deze kennis moet ervoor zorgen dat de deskundige AI op een verantwoorde wijze inzet. Daarbij moeten ook de licentie- en gebruiksvoorwaarden van de AI-leverancier worden nageleefd.
Vertrouwelijkheid en gegevensbescherming
Een belangrijk onderdeel van de richtlijn is het waarborgen van de vertrouwelijkheid van informatie. AI mag enkel gebruikt worden als de toepassing voldoende waarborgen biedt voor gegevensbeveiliging. Als dat niet mogelijk is, moet vertrouwelijke informatie worden geanonimiseerd of helemaal niet ingevoerd. Bovendien moeten deskundigen voorkomen dat zij persoonsgegevens verwerken op een manier die in strijd is met de AVG of andere privacywetgeving. Ook het respecteren van intellectuele eigendomsrechten krijgt nadruk.
Verantwoordelijkheid en controle
De deskundige blijft eindverantwoordelijk voor de inhoud van het rapport. AI mag niet dienen als ‘black box’ waarop blind wordt vertrouwd. Elke output van de AI moet kritisch worden gecontroleerd aan de hand van de eigen vakkennis of geverifieerde bronnen. De deskundige moet zich bewust zijn van risico’s zoals AI-hallucinaties (verzonnen informatie), onjuiste bronvermeldingen, en plagiaat. Deze controleplicht is fundamenteel voor de betrouwbaarheid van het deskundigenrapport.
Transparantie van AI-gebruik
Een van de kernprincipes van de richtlijn is transparantie. Deskundigen moeten in hun rapport helder vermelden of en hoe AI is gebruikt. Dat omvat informatie over:
de gebruikte AI-toepassing (versie en model),
de ingevoerde gegevens en gestelde vragen,
de gegenereerde output en bronnen,
en de manier waarop deze output in het onderzoek is verwerkt.
Deze transparantie stelt gebruikers van het rapport, zoals rechters en advocaten, in staat het gebruik van AI te beoordelen op relevantie en betrouwbaarheid.
Evaluatie van AI-toepassingen
Omdat AI snel evolueert, is periodieke evaluatie van gebruikte AI-systemen verplicht. Deskundigen moeten nagaan of de toepassing nog voldoet aan de eisen van de richtlijn en zo nodig het gebruik aanpassen. Dit voorkomt dat verouderde of inadequaat werkende systemen een negatieve invloed hebben op de kwaliteit van het onderzoek.
Naleving van wet- en regelgeving
AI-gebruik mag nooit in strijd zijn met wettelijke kaders, beroepsregels of het beroepsgeheim. Ook moet het binnen de grenzen blijven van de opdracht zoals verstrekt door de benoemende rechter. De richtlijn benadrukt dat beroepsethiek onverminderd van kracht blijft, ook bij inzet van geavanceerde technologie.
Conclusie
De LRGD-richtlijn biedt een helder kader voor het verantwoord gebruik van AI door gerechtelijk deskundigen. Voor juristen is het essentieel te weten dat AI steeds vaker een rol speelt in deskundigenonderzoek, maar dat de menselijke deskundige altijd eindverantwoordelijk blijft. Transparantie, controleerbaarheid en zorgvuldige omgang met vertrouwelijke gegevens zijn de sleutelbegrippen. Door deze richtlijn kunnen juristen beter inschatten hoe betrouwbaar en toelaatbaar AI-gebruik binnen een deskundigenrapport is — en zo de kwaliteit van hun eigen juridische beoordeling verbeteren.