Kerala High Court publiceert eerste AI-beleid voor rechters in India

De Hoge Raad van Kerala heeft in juni 2025 als eerste rechterlijke instantie in India een formeel beleidsdocument vastgesteld over het gebruik van kunstmatige intelligentie (AI) in de rechtbank. Deze beleidsregels, opgesteld door de Registrar General en van toepassing op de gehele districtsjurisdictie van de staat Kerala, markeren een belangrijke mijlpaal in de mondiale discussie over AI en rechtspraak. De beleidslijn is bedoeld om enerzijds de voordelen van AI op het gebied van efficiëntie te benutten, maar anderzijds duidelijke grenzen te stellen om de integriteit, vertrouwelijkheid en menselijke verantwoordelijkheid van de rechtspraak te waarborgen.

Geen AI in rechterlijke oordelen

Een van de kernpunten van het beleid is het absolute verbod op het gebruik van AI bij het nemen van juridische beslissingen. Rechters mogen AI niet gebruiken voor het vormen van een oordeel, het trekken van juridische conclusies of het opstellen van uitspraken. AI mag volgens de beleidsregels nooit een substituut vormen voor menselijke juridische redenering. De tekst vermeldt expliciet dat tools als ChatGPT, DeepSeek of andere AI-modellen niet mogen worden ingezet voor het bepalen van bevindingen, toewijzingen of rechterlijke bevelen.

Deze benadering sluit aan bij eerdere standpunten van het Indiase Hooggerechtshof, dat AI uitsluitend toestaat voor administratieve doeleinden. Ook bij het Hooggerechtshof worden AI-tools al ingezet voor het signaleren van procedurele fouten in dossiers, maar steeds onder toezicht van menselijke controle.

Alleen goedgekeurde AI voor vertaling en agendabeheer

AI mag uitsluitend worden ingezet voor strikt omschreven, niet-juridische toepassingen zoals het plannen van zittingen en het vertalen van documenten. Zelfs hiervoor geldt dat enkel vooraf goedgekeurde AI-toepassingen mogen worden gebruikt. Goedkeuring moet worden verleend door de Hoge Raad van Kerala of door het Hooggerechtshof van India. Iedere output van een AI-systeem — bijvoorbeeld een vertaling of een geautomatiseerde lijst met verwijzingen — moet vervolgens handmatig worden gecontroleerd door een rechter, griffier of beëdigd vertaler.

Deze beperking is bedoeld om fouten en onnauwkeurigheden te voorkomen en benadrukt het uitgangspunt dat AI slechts een hulpmiddel is, en geen beslissende autoriteit.

Verbod op cloudgebaseerde AI-diensten

Een opvallend onderdeel van het nieuwe beleid is het volledige verbod op het gebruik van cloudgebaseerde AI-diensten. De reden hiervoor is het waarborgen van privacy, vertrouwelijkheid en bescherming van gevoelige (persoons)gegevens. Cloudsystemen zoals ChatGPT of Google Gemini verwerken gegevens doorgaans op externe servers die zich buiten de controle van de rechtbank bevinden. Daardoor kunnen gevoelige documenten of persoonsgegevens mogelijk onbedoeld worden blootgesteld aan derde partijen.

Zelfs bij lokaal gehoste en goedgekeurde AI-toepassingen moeten rechters en personeel uiterst terughoudend zijn. Het beleid onderstreept dat elke toepassing uitsluitend mag worden gebruikt voor het goedgekeurde doel en niet voor andere experimenten of toepassingen.

Verplichte audit trail voor elke AI-handeling

Transparantie is een belangrijk uitgangspunt van het beleid. Daarom zijn alle rechtbanken binnen de staat Kerala verplicht een gedetailleerde audit trail bij te houden van elke AI-toepassing die binnen hun processen wordt ingezet. Dit houdt in dat per handeling moet worden vastgelegd:

  • Welke AI-tool is gebruikt;

  • Voor welk doel;

  • Wie de uitvoerder was;

  • Welke verificatiestappen zijn genomen;

  • Of er afwijkingen of fouten zijn geconstateerd.

Eventuele fouten in AI-uitvoer dienen direct te worden gemeld aan de Principal District Judge, die vervolgens het incident doorstuurt naar de IT-afdeling van de Hoge Raad van Kerala voor nadere evaluatie.

Scholing van rechters, personeel en stagiairs

Om de juiste omgang met AI te waarborgen, voorziet het beleid ook in verplichte opleidingstrajecten. Alle rechters, gerechtsambtenaren, stagiairs en juridisch ondersteunend personeel dienen trainingen te volgen, georganiseerd door de Kerala Judicial Academy of de Hoge Raad zelf. Tijdens deze sessies wordt aandacht besteed aan:

  • De ethische kaders van AI-gebruik;

  • Juridische en procedurele risico’s;

  • Technische aspecten en beveiliging;

  • Praktische richtlijnen voor gebruik en toezicht.

Het doel van deze trainingen is niet alleen kennisvergroting, maar vooral bewustwording en versterking van de menselijke eindverantwoordelijkheid in het rechterlijk proces.

Een normstellend document voor andere rechtssystemen?

Hoewel de beleidsregels van de Hoge Raad van Kerala uitsluitend gelden voor rechtbanken binnen de gelijknamige staat, is de inhoud ervan van bredere betekenis. De combinatie van openheid voor technologische ondersteuning en nadruk op ethische grenzen en menselijke controle biedt een werkbaar model voor andere rechtbanken — in India en daarbuiten — die worstelen met vragen over AI-gebruik binnen juridische processen.

Het feit dat India’s eerste AI-beleid voor de rechterlijke macht van onderaf komt, dus van een deelstaat in plaats van het centrale Hooggerechtshof, is illustratief voor de pragmatische aanpak: duidelijkheid scheppen voordat technologische vooruitgang leidt tot ongewenste risico’s voor juridische waarborgen.

Afsluiting

De beleidsregels van de Hoge Raad van Kerala markeren een belangrijk moment in de wereldwijde ontwikkeling van AI binnen juridische instellingen. Door strikt onderscheid te maken tussen administratief gebruik en juridische besluitvorming, en door te investeren in controle, documentatie en opleiding, wordt een evenwicht gezocht tussen innovatie en rechtsstatelijke betrouwbaarheid. Voor juristen wereldwijd biedt dit een concreet voorbeeld van hoe AI op verantwoorde wijze kan worden ingebed in de rechtspraak – zonder het fundament van menselijke beoordeling aan te tasten.

Hoewel het document specifiek is voor één Indiase deelstaat, biedt het aanknopingspunten voor andere rechtsstelsels die worstelen met dezelfde vraagstukken: hoe benut je AI op een efficiënte manier, zonder afbreuk te doen aan juridische onafhankelijkheid, vertrouwelijkheid en mensenrechten?

Vorige
Vorige

GPT-5: praktische promptgids voor juristen

Volgende
Volgende

GPT-5 gelanceerd: wat juristen moeten weten over het nieuwste model binnen ChatGPT