Welke AI-tools gebruiken advocatenkantoren, en hoe veilig zijn ze?

Het aanbod van AI-tools voor de advocatuur groeit snel. Aan de ene kant zijn er juridisch-specifieke oplossingen als Zeno, Andri, Saga, Harvey, Lexis+ AI en Legal Mind. Aan de andere kant gebruiken advocaten massaal algemene tools als ChatGPT, Copilot, Gemini en Perplexity. Vaak naast elkaar, soms door elkaar.

Het verschil zit niet in de naam. Het zit in wat er met je data gebeurt.

De juridisch-specifieke tools die gericht zijn op de Nederlandse markt, zoals Zeno, Andri, Saga, GenIA-L, LegalMike, Legal Mind, LEGALFLY, Lexboost en LEXGEN AI, verwerken data binnen de EER en gebruiken klantdata niet voor modeltraining. Ze zijn gebouwd voor de juridische praktijk, met de bijbehorende eisen rondom vertrouwelijkheid.

Bij algemene tools hangt het af van het abonnementstype. De gratis versies van ChatGPT, Gemini en Copilot gebruiken ingevoerde data standaard voor modeltraining. Betaalde enterprise-versies doen dat doorgaans niet, maar de voorwaarden variëren per aanbieder en per moment. Wat vandaag geldt, kan morgen anders zijn.

Dat betekent niet dat algemene tools per definitie ongeschikt zijn. Een advocaat die Copilot gebruikt om een interne planning op te stellen doet iets anders dan een advocaat die vertrouwelijke dossierinformatie invoert in een gratis versie van ChatGPT. De context bepaalt het risico.

Maar dan moet je die afweging wel bewust maken. En dat vereist dat je weet welke tools er binnen je kantoor worden gebruikt, in welke versie, en voor welke doeleinden. Bij veel kantoren ontbreekt dat overzicht. Tools worden aangeschaft door individuele advocaten, soms via een privé-account, zonder dat iemand centraal meekijkt.

De NOvA is hier helder over: gebruik geen gratis tools voor vertrouwelijke informatie. De AP gaat verder en stelt dat organisaties niet mogen afgaan op marketingbeloftes van leveranciers maar zelf moeten controleren wat er met data gebeurt.

Een goed startpunt: breng in kaart welke tools er worden gebruikt, controleer de voorwaarden, en stel kaders. Onze AI-beleidsscan helpt daarbij. Je vult in welke tools je kantoor gebruikt en hoe, en het rapport laat zien waar de risico's zitten.

Doe de scan.

Vorige
Vorige

Law 3.0: waarom oordeelsvermogen de nieuwe kerncompetentie is

Volgende
Volgende

AI verkoopt geen uren, het verkoopt waarde