Nederland wil AI verbieden. Columbia Law School leert het begrijpen.

In Nederland wordt een opvallende discussie gevoerd. Een groeiend deel van de academische juridische wereld pleit voor een verbod op generatieve AI aan rechtenfaculteiten. Twee Maastrichtse auteurs riepen in NRC op om AI te weren uit de juridische faculteit, en introduceerden in het Nederlands Juristenblad het voorzorgsbeginsel in dubio contra machina: verbieden, tenzij een commissie het gebruik expliciet goedkeurt.

Columbia Law School slaat een andere weg in. De school introduceerde dit voorjaar een nieuwe cursus, "Law of Artificial Intelligence", die studenten niet leert hoe je ChatGPT inzet om een samenvatting te produceren, maar hoe neurale netwerken, transformers en large language models werkelijk werken. Volgens Legaltech News stonden er bij de start meer dan 100 studenten op de wachtlijst.

Niet alleen gebruiken, maar begrijpen

De cursus wordt gegeven door Michel Paradis, partner bij Steptoe en gepromoveerd in computationele linguïstiek aan Oxford. Zijn uitgangspunt is even herkenbaar als oncomfortabel: mensen worden jurist omdat ze slim zijn en geen wiskunde willen doen. Precies daar zit een probleem. Bij technische vragen die de uitkomst van een zaak bepalen, zei hij tegen Legaltech News, helpt het om te weten wat er onder de motorkap gebeurt.

De cursus begint daarom met weken techniek. Hoe werkt een neuraal netwerk? Wat is een transformer? Hoe wordt een model getraind? Pas daarna gaat het over het recht: auteursrechtclaims op trainingsdata, productaansprakelijkheid, due process bij geautomatiseerde besluitvorming, algoritmische discriminatie. Precies de onderwerpen die Paradis in zijn praktijk bij Steptoe dagelijks tegenkomt.

AI als rechtsgebied, niet als hulpmiddel

De Nederlandse discussie richt zich vrijwel uitsluitend op de vraag of een student ChatGPT mag gebruiken voor een werkstuk. Columbia stelt een heel andere vraag: hoe bereid je juristen voor op een wereld waarin AI-systemen zelf onderwerp van rechtszaken en regelgeving zijn?

Die vraag is niet theoretisch. De AI Act is sinds 2024 van kracht en kent gefaseerde deadlines tot 2027. Rechthebbenden procederen tegen de bouwers van foundation models over trainingsdata. Toezichthouders onderzoeken algoritmische discriminatie. Productaansprakelijkheid voor AI-modellen wordt een reëel onderwerp. In Nederland zit de nasleep van het toeslagenschandaal precies op dit snijvlak.

Hoe adviseer je een cliënt over de AI Act als je niet weet wat een foundation model is? Hoe procedeer je over trainingsdata als je niet begrijpt wat trainen technisch inhoudt? Hoe beoordeel je een due diligence bij een AI-overname zonder technisch fundament? Dat zijn geen academische vragen, dat zijn dossiers die nu bij kantoren op het bureau liggen.

Wat een verbod eigenlijk verbiedt

De auteurs van het NRC-stuk hebben een punt waar ze wijzen op de risico's van klakkeloos gebruik: hallucinaties, spoon-feeding, het verlies van kritisch denken. Dat zijn serieuze zorgen en geen kantoor kan zich permitteren die weg te wuiven.

Maar een verbod lost die zorgen niet op, het schuift ze door. De student die vandaag geen AI mag gebruiken, is over vijf jaar advocaat in een praktijk waarin de AI Act wordt gehandhaafd, waarin cliënten hun modellen willen uitrollen en waarin tegenpartijen LLM's inzetten om in dagen door dossiers te spitten waar een team weken over doet. Die advocaat heeft meer nodig dan het besef dat AI hallucineert.

Columbia's keuze is in dat licht niet naïef, maar pragmatisch. De enige manier om juristen te wapenen tegen de valkuilen van AI is ze leren wat er technisch gebeurt. Pas dan herken je een hallucinatie voordat die in een processtuk belandt. Pas dan beoordeel je of een trainingsdataset bias introduceert. Pas dan voer je een zinvol verweer tegen een geautomatiseerd besluit van een toezichthouder.

Wat dit betekent voor jouw kantoor

Nederlandse rechtenfaculteiten maken hun eigen keuzes. Als kantoor wacht je daar niet op. De kennis die Columbia nu in collegezalen inricht, bepaalt de komende jaren welke advocaten de grote AI-dossiers binnenhalen en welke achter het net vissen.

Dat vraagt geen universitaire herstructurering, maar wel een investering in je team. Niet alleen in hoe advocaten AI-tools gebruiken in hun dagelijkse werk, maar in hoe ze AI-systemen begrijpen als onderwerp van advies, procedure en regelgeving. Juist dat snijvlak is waar wij Nederlandse advocatenkantoren op begeleiden.

Vorige
Vorige

Claude Design: wat juridische teams er wel en niet mee kunnen

Volgende
Volgende

Het AI-model dat niemand mag gebruiken, en waarom dat jou als jurist raakt