Een vrijwillig keurmerk voor juridische AI

De Britse legaltech-groep LITIG (Legal IT Innovators Group) heeft een belangrijk initiatief gelanceerd: het AI Transparency Charter. Dit handvest biedt een kader voor transparant en verantwoord gebruik van kunstmatige intelligentie binnen de juridische sector. Bedrijven die zich aansluiten, kunnen een ‘kitemark badge’ voeren als zichtbaar teken van hun betrokkenheid bij de onderliggende kwaliteitsprincipes. Het gaat om een vorm van vrijwillige zelfregulering, waarmee LITIG wil bijdragen aan meer vertrouwen in juridische AI – een thema dat de laatste jaren aan urgentie heeft gewonnen.

Vertrouwen herstellen in juridische AI

De aanleiding voor het initiatief ligt in eerdere incidenten en misverstanden over de nauwkeurigheid van AI-systemen binnen de juridische praktijk. In 2024 bleek uit verschillende testen dat er een aanzienlijke kloof bestond tussen wat juridische AI-tools daadwerkelijk konden en wat gebruikers ervan verwachtten. Dat leidde tot roep om duidelijkheid, verantwoordelijkheid en transparantie. Platforms zoals Artificial Lawyer riepen destijds op tot een community-gedreven aanpak om dat vertrouwen te herstellen. Het LITIG-handvest is een antwoord op die oproep, en richt zich op zowel ontwikkelaars van juridische AI als kantoren die AI-toepassingen in hun dienstverlening integreren.

Een ‘kompas’, geen strikte normering

Het handvest vermijdt bewust het opleggen van vaste technische normen of prestatiedrempels. De reden is eenvoudig: de ‘state of the art’ in AI verandert te snel. In plaats daarvan spreekt LITIG over een “compass approach”: een gezamenlijke richting waarin continue verbetering, openheid en toetsbaarheid centraal staan. Die benadering moedigt leveranciers aan om hun producten eerlijk te presenteren, zonder te pretenderen dat AI feilloos is. De nadruk ligt op verantwoorde adoptie, niet op certificering van perfectie.

Kernprincipes van het AI Transparency Charter

Het handvest bestaat uit zes leidende principes, die samen een ethisch en praktisch kader vormen voor het gebruik van AI in de juridische sector:

  1. Transparantie – Eerlijke en begrijpelijke communicatie over hoe AI wordt ingezet binnen juridische diensten en producten.

  2. Nauwkeurigheid & Testing – Prestaties worden onderbouwd met gegevens en toetsingsmethoden, zodat claims controleerbaar zijn.

  3. Bias & Ethiek – Actieve identificatie en mitigatie van mogelijke vooroordelen of oneerlijke uitkomsten.

  4. Gebruik en Beperkingen – Duidelijke informatie over waar AI effectief is – en waar niet.

  5. Milieu-impact – Bewustzijn van de energie- en grondstofvoetafdruk van AI, met inzet op reductie.

  6. Regelgeving & Standaarden – Afstemming met bestaande wet- en regelgeving, waaronder de EU AI Act, en relevante industrienormen.

Deze principes vormen geen harde wet, maar een gezamenlijke morele en professionele standaard voor juridische AI-toepassingen.

Praktische hulpmiddelen voor de sector

Om naleving van de principes te ondersteunen, heeft LITIG een reeks documenten ontwikkeld die als praktische leidraad dienen:

  • Litig AI Product Transparency Statement – Een gestandaardiseerd sjabloon, geïnspireerd op Google’s model cards, waarmee leveranciers details kunnen delen over hun technologie, datasets, testmethoden en ethische waarborgen.

  • Litig AI Use Case Framework – Een instrument waarmee kantoren en bedrijven hun AI-toepassingen kunnen definiëren, evalueren en documenteren, inclusief risico’s en beslissingscriteria.

  • AI-glossarium en naslagmateriaal – Een overzicht van relevante termen, benchmarks en toetsingsmethodieken, afgestemd op juridische context.

Samen vormen deze middelen een transparantie-infrastructuur die bedrijven helpt om hun AI-processen beter te begrijpen en te communiceren – zowel intern als naar cliënten en toezichthouders.

Een vrijwillig, maar betekenisvol keurmerk

Organisaties die het handvest onderschrijven, mogen het AI Transparency Charter-badge gebruiken in hun communicatie. Dit is echter geen gecertificeerde audit of officiële goedkeuring, maar een symbolische erkenning van betrokkenheid bij verantwoord AI-gebruik. Deelname is volledig vrijwillig. LITIG benadrukt dat het handvest niet bedoeld is als marketinginstrument, maar als gemeenschappelijke standaard die de juridische sector helpt bij het ontwikkelen van betrouwbare AI-systemen.

Naar sectorbrede verantwoordelijkheid

Het initiatief van LITIG markeert een bredere verschuiving richting zelfregulering in de juridische technologie. Waar overheden zoals de EU via de AI Act vooral wettelijke kaders bieden, probeert de sector hier zelf normen te ontwikkelen die concreter en praktischer zijn. Als voldoende partijen zich aansluiten, kan het handvest uitgroeien tot een herkenbare standaard voor vertrouwen, transparantie en zorgvuldigheid in juridische AI.

Zoals LITIG het zelf samenvat:

“Vertrouwen in juridische AI begint bij openheid over hoe ze werkt.”

Door deze stap laat de Britse legaltech-sector zien dat verantwoord innoveren niet alleen een kwestie is van regelgeving, maar ook van professionele overtuiging.

Vorige
Vorige

Trend: De opkomst van de agentic browser

Volgende
Volgende

AP: Verder bouwen aan AI-geletterdheid