
Actualiteiten

Algoritmes bij de Belastingdienst: Transparantie versus Toezichtbelang
De Rechtbank Den Haag heeft zich recent uitgesproken over een zaak waarin transparantie over algoritmegebruik door de overheid botste met het belang van effectief toezicht. In deze procedure stond centraal of de Belastingdienst verplicht is inzicht te geven in de werking van risicomodellen die zij inzet bij het controleren van belastingaangiftes. De rechtbank oordeelde van niet. Met een beroep op artikel 5.1, tweede lid, onder d van de Wet open overheid (Woo) mocht de Belastingdienst weigeren bepaalde documenten (gedeeltelijk) openbaar te maken.

Verwijderd is niet verdwenen: hoe een Amerikaans bevel het recht op vergetelheid op losse schroeven zet
Een Amerikaanse rechter heeft OpenAI bevolen om alle gebruikersinteracties te bewaren, inclusief verwijderde gesprekken. Deze beslissing maakt deel uit van de pre-trial discovery in de zaak tussen The New York Times en OpenAI, en is bedoeld om mogelijk bewijsmateriaal veilig te stellen. Tegelijkertijd klaagt Reddit AI-bedrijf Anthropic aan wegens ongeoorloofd scrapen van gebruikersdata. Beide zaken laten zien hoe AI-gebruik juridisch risicovol kan zijn, zeker rond data-eigendom en privacy.

Legal Prompt van de week: de checklistprompt
In deze editie verkennen we hoe je AI kunt inzetten om juridische uitspraken systematisch te analyseren. Denk aan een cluster van EHRM-uitspraken over artikel 8 EVRM, recente civiele rechtspraak over non-conformiteit of bestuursrechtelijke uitspraken over de Wmo. Onze rechtspraak-monitor-prompt laat een taalmodel tientallen uitspraken scannen op patronen, afwijkingen en inhoudelijke trends.

Addressing Artificial Intelligence: The UK Competition and Markets Authority Perspective
This report outlines how the UK Competition and Markets Authority (CMA) is addressing Artificial Intelligence (AI) in exercising its competition functions. As a cross-sectoral regulator, the CMA has had to address the growing impact of AI as it relates to its remit.

AI en de democratische rechtsorde: waarom Nederland nú leiderschap moet tonen
De Adviesraad Internationale Vraagstukken waarschuwt dat AI fundamentele publieke waarden en de democratische rechtsorde bedreigt. De Europese AI-verordening is belangrijk, maar onvoldoende zolang Europa afhankelijk blijft van buitenlandse techreuzen. De AIV pleit voor een uitlegbaar, controleerbaar en publiek gestuurd AI-ecosysteem. Nederland moet hierin een leidende rol nemen, door regie te voeren, publieke alternatieven te stimuleren en internationaal coalities te vormen. Juristen spelen hierbij een cruciale rol in het waarborgen van transparantie, grondrechten en verantwoord gebruik van AI.

Weer een nieuw ChatGPT model. Wanneer kies je nu welke?
Met de recente release van OpenAI’s o3-pro model, is het AI landschap opnieuw in beweging. Veel juristen experimenteren inmiddels actief met meerdere generatieve AI-modellen, waaronder het standaardmodel GPT-4.0, wellicht ook o3. Nu is daar recent het model o3-pro bij gekomen. De vraag dringt zich op: welk model van ChatGPT gebruik je het beste voor welke taak? Met deze blog bieden we graag een heldere en praktijkgerichte gids op basis van onze ervaringen binnen ChatGPT. De belangrijkste les? Niet ieder AI-model is geschikt voor elke juridische toepassing – en het loont om te weten wanneer je moet wisselen.

Hoe Mistral de privacykaart speelt
In een tijd waarin AI-giganten als OpenAI, Google en Anthropic elkaar verdringen om de titel van meest geavanceerde taalmodel, kiest de Franse AI-startup Mistral voor een radicaal andere route. In plaats van zich uitsluitend te richten op modelprestaties, zet Mistral stevig in op infrastructuur, datasoevereiniteit en privacy. Hun nieuwe aanbod, Mistral Compute, is meer dan een technologische uitbreiding — het is een geopolitieke zet met verstrekkende juridische en ethische implicaties.

NOvA Projectgroep Digitalisering & AI: "Durf uit je comfortzone te stappen"
De projectgroep Digitalisering & AI van de NOvA stimuleert innovatie en verantwoord AI-gebruik binnen de advocatuur. Voorzitter Katja van Kranenburg pleit voor meer digitale vaardigheden en bewustwording, om kansen te benutten en tweedeling te voorkomen. De projectgroep richt zich op vier thema’s: innovatie in dienstverlening, inclusieve transformatie, kennisontwikkeling en ethisch gebruik van technologie. Van Kranenburg adviseert advocaten om zich actief te verdiepen in generatieve AI en legal prompting.

LexisNexis + Harvey: De alliantie die legal tech herschept
Op 18 juni 2025 kondigden LexisNexis en Harvey een strategisch partnerschap aan dat de juridische technologie-industrie grondig zal hervormen. LexisNexis – wereldleider in juridische data – stelt zijn omvangrijke juridische databanken ter beschikking aan Harvey, het generatieve AI-wonderkind dat in twee jaar tijd honderden advocatenkantoren wist te overtuigen. Samen bouwen zij aan AI-gedreven juridische producten en workflows. De implicaties van deze alliantie zijn fundamenteel. Niet alleen omdat twee dominante spelers hun krachten bundelen, maar vooral omdat dit het begin markeert van een nieuw tijdperk: de juridische AI-assistent is geen toekomstbeeld meer, maar realiteit.

Waarom Amsterdam is gestopt met de AI-pilot voor bijstandsaanvragen
De gemeente Amsterdam heeft besloten om te stoppen met een veelbelovende, maar uiteindelijk problematische pilot waarin kunstmatige intelligentie werd ingezet bij het beoordelen van bijstandsaanvragen. Het project, genaamd Slimme Check, had als doel om aanvragen op een snellere en eerlijkere manier te beoordelen, zonder daarbij afbreuk te doen aan de rechten van burgers. De inzet van het algoritme moest ambtenaren ondersteunen bij het bepalen of een aanvraag nader onderzocht moest worden. Daarmee zou de werkdruk verminderen en zou de capaciteit efficiënter worden ingezet, met behoud van de menselijke eindverantwoordelijkheid.

Jouw taalmodel weet meer over jou dan je denkt
AI-chatbots bouwen tijdens interactie ongemerkt een profiel van hun gebruikers op, gebaseerd op taalgebruik, inhoud en gedragskenmerken. Zelfs zonder expliciete persoonsgegevens kunnen deze digitale vingerafdrukken veel over iemand onthullen. In een professionele context, zoals juridische of compliance-werkzaamheden, brengt dit privacyrisico’s met zich mee. Het geheugen van AI-systemen onthoudt voorkeuren, thema’s en schrijfstijl, tenzij gebruikers dit actief beheren. Organisaties doen er verstandig aan intern beleid te ontwikkelen over het gebruik van AI en gevoelige informatie. Bewust en zorgvuldig gebruik is essentieel om controle te houden over wat je – bewust of onbewust – deelt met je digitale assistent.

Wordt Copilot dan toch veilig met Microsoft 365 Local?
Microsoft heeft op 18 juni 2025 een nieuwe stap gezet in haar streven naar digitale soevereiniteit voor Europese organisaties: de introductie van de Microsoft Sovereign Cloud (MSC). Met deze aankondiging biedt Microsoft een reeks producten die zijn ontworpen om overheidsinstanties en bedrijven in Europa meer controle te geven over hun data, digitale infrastructuur en compliance met Europese regelgeving. Onderdeel daarvan is Microsoft 365 Local — een lokale variant van Microsoft 365, speciaal ontwikkeld voor klanten met hoge eisen op het gebied van gegevensbescherming en IT-soevereiniteit.

A Grand Entrance Without a Blueprint: A Critical Analysis of the Right to Explanation in Article 86 of the European Union Artificial Intelligence Act
The widespread use of Artificial Intelligence (AI) in decision-making has significantly impacted individuals and societies. In response to the growing need for transparency and accountability in AI systems, the European Council (EC),in May 2024, approved an updated text of the previously proposed 2021 EU Artificial Intelligence Act (AIA).

De opkomst van Crosby: ’s werelds eerste AI-first zakelijk advocatenkantoor
De juridische wereld staat aan de vooravond van een fundamentele transformatie. Waar legal tech zich tot voor kort vooral richtte op ondersteuningstools voor advocaten, zien we nu de eerste juridische dienstverleners ontstaan die AI niet langer als hulpmiddel, maar als kern van hun dienstverlening positioneren. Het recent gelanceerde Amerikaanse kantoor Crosby is hiervan het sprekendste voorbeeld. Met een team van topjuristen en ingenieurs, stevige backing van Sequoia Capital, en een businessmodel zonder uurtarieven, profileert Crosby zich als ’s werelds eerste AI-first zakelijke advocatenkantoor.

Aansprakelijkheid en regelgeving rond artificiële intelligentie in de zorg
Artificiële intelligentie (AI) in de zorg staat niet op zichzelf zoals een MRI-scanner, een pacemaker of een prothese. Het is een systeemtechnologie, waarbij software data ontvangt, die data verwerkt en erop reageert. Door vorige acties te analyseren, is AI in staat zich te verbeteren. De toepassingsmogelijkheden zijn legio: een chatbot die taal verwerft om vragen te begrijpen en passend te beantwoorden, een systeem dat medische beelden analyseert, diagnosticeert en daarvan leert, een robot die operaties uitvoert, systemen die data en beelden analyseren om ziektes op te sporen, een robot die patiënten vraagt hoe zij zich voelen en hun symptomen in kaart brengt enzovoort.

Gratis én anoniem experimenteren met meerdere AI-modellen
AI gebruiken zonder in te loggen, zonder dat je gegevens worden opgeslagen, en mét toegang tot meerdere grote taalmodellen – kan dat? DuckDuckGo, bekend van de privacyvriendelijke zoekmachine, biedt met Duck AI precies dat: een anonieme, laagdrempelige manier om verschillende generatieve AI-modellen uit te proberen, zonder dat je persoonlijke gegevens worden verwerkt of opgeslagen. Een interessante ontwikkeling voor juristen die enerzijds nieuwsgierig zijn naar generatieve AI, maar anderzijds terecht kritisch zijn op het gebied van privacy, compliance en dataminimalisatie.

IND mag algoritme als hulpmiddel gebruiken, mits uitlegbaar
De rechtbank Den Haag oordeelde op 10 juni 2025 dat de IND géén gebruik had gemaakt van het algoritme Case Matcher in een specifieke asielzaak, en zag daarom geen aanleiding om het systeem inhoudelijk te toetsen. Wel benadrukte de rechtbank dat bestuursorganen transparant moeten zijn over het gebruik van algoritmes, zeker zolang deze niet in rechte zijn getoetst. De uitspraak maakt duidelijk dat algoritmisch gebruik uit het dossier moet blijken om effectieve rechtsbescherming te waarborgen. De rechter verwierp de suggestie dat generatieve AI zoals ChatGPT of CoPilot zou zijn ingezet, vanwege gebrek aan onderbouwing en de toepasselijkheid van de AVG. Voor organisaties betekent dit dat inzet van AI of algoritmes altijd uitlegbaar, traceerbaar en juridisch verdedigbaar moet zijn. Goede documentatie is daarbij essentieel.

AI in de juridische praktijk: het belang van gestructureerde data
Steeds meer organisaties vragen zich af of ze AI moeten toelaten op de werkvloer. Maar een fundamentelere vraag dringt zich op: kun je het gebruik eigenlijk nog wel tegenhouden? Het eerlijke antwoord is nee – het gebruik van AI door werknemers is onvermijdelijk. Waarom dat zo is, wordt duidelijk wanneer je het benadert vanuit een gedragswetenschappelijk perspectief: medewerkers laten zich in hun handelen niet primair leiden door regels, maar door drijfveren.

Guidelines doorgifte derde landen definitief en nieuw trainingsmateriaal AI & AVG
Nieuwe guidelines van de European Data Protection Board (EDPB) over doorgifte naar derde landen zijn definitief. Daarnaast heeft de EDPB trainingsmateriaal gepubliceerd om vaardigheden op het gebied van AI & gegevensbescherming te vergroten onder professionals. Op de laatste plenaire vergadering besprak de EDPB ook het aanpassen van de verplichtingen rondom verwerkingsregisters.

Legal Prompt van de week: Rechtspraak-monitor – trends & afwijkingen
In deze editie verkennen we hoe je AI kunt inzetten om juridische uitspraken systematisch te analyseren. Denk aan een cluster van EHRM-uitspraken over artikel 8 EVRM, recente civiele rechtspraak over non-conformiteit of bestuursrechtelijke uitspraken over de Wmo. Onze rechtspraak-monitor-prompt laat een taalmodel tientallen uitspraken scannen op patronen, afwijkingen en inhoudelijke trends.