Inzichten
Tweede geval gehallucineerde uitspraken in Nederlands vonnis
De rechtbank Gelderland signaleerde in een recente bijstandszaak dat de gemachtigde van eiser kort voor de zitting meerdere niet-bestaande of irrelevante ECLI-verwijzingen had ingediend, waarvan slechts twee uitspraken daadwerkelijk bleken te kloppen. Tijdens de zitting kon de gemachtigde het bestaan, de vindplaats en de relevantie van de overige verwijzingen niet toelichten. De rechtbank vermoedt daarom dat gebruik is gemaakt van ChatGPT of een andere AI-tool en passeert de aangehaalde rechtspraak volledig. Daarnaast bleek een feitelijke stelling van eiser — dat hij tijdens een hoorzitting een verzoek had gedaan — onjuist omdat hij bij die hoorzitting niet aanwezig was. De uitspraak laat zien dat AI niet alleen fictieve jurisprudentie kan genereren, maar ook feiten kan hallucineren. De rechtbank benadrukt daarmee het belang van volledige controle van alle door AI geproduceerde informatie.
Internetconsultatie Kaderwet Toetsing Algoritmen
De Kaderwet Toetsing Algoritmen verplicht bestuursorganen om risicoprofileringsalgoritmen vooraf te toetsen op discriminatie. Elk algoritme moet een kwalitatieve en kwantitatieve toets ondergaan, waarvan de uitkomsten openbaar worden via een algoritmeregister. Alleen uitlegbare, statistisch onderbouwde modellen zijn toegestaan. De wet sluit aan op de AVG, Awgb en Awb en vult de AI-verordening aan voor niet-AI-systemen. Burgers moeten actief geïnformeerd worden over algoritmegebruik en krijgen bezwaarrechten. Toezicht ligt bij de Autoriteit Persoonsgegevens, die sancties kan opleggen bij non-compliance.
AI gebruiken zonder gaten in je databescherming
Wat als je AI inzet om processen te verbeteren, maar je tegelijk fundamentele rechten schendt – zonder dat je het weet? De meeste risico’s van AI zitten niet in spectaculaire scenario’s, maar in stille fouten: bias in datasets, verkeerde aannames in modellen of onbedoelde lekken van persoonsgegevens. Juist daarom publiceerde de EDPS een nieuwe leidraad die AI-risico's praktisch en technisch benadert – gericht op dataminimalisatie, fairness en verantwoording.
Zeno heeft internationale ambities
Zeno is een Rotterdamse legaltech-start-up die in korte tijd meer dan 1.200 juridische klanten aantrok met één geïntegreerd AI-platform voor het volledige advocatenwerkproces. De tool bundelt zoeken, analyseren, vertalen en contractreview, zodat kantoren niet langer meerdere AI-applicaties hoeven te gebruiken. Alle antwoorden zijn “geground” in een eigen juridische database met officiële bronnen, met sterke focus op veiligheid en Europese datahosting. Advocaten omarmen het systeem snel dankzij de intuïtieve werking en aanvullende trainingen. Het bedrijf groeit hard, telt inmiddels veertien medewerkers en haalde twee miljoen euro aan financiering op. Zeno heeft uitgesproken internationale ambities en bereidt uitbreiding naar het Engelse rechtsstelsel voor.
Critical Criteria for AI Impact Assessment: A Proposal, Applied on Current Standards
Standardisation processes for artificial intelligence (AI) governance and risk management are underway, including the International Organization for Standardization (ISO), the Institute of Electrical and Electronics Engineers (IEEE), the US National Institute of Standards and Technology (NIST), and the European Committee for Standardization (CEN / CENELEC). These efforts aim to establish frameworks, methodologies, and metrics for evaluating, among others, the ethical and social impacts of AI technologies, considering different scopes and approaches.
Wolters Kluwer neemt leverancier van juridische AI-software Libra Technology GmbH over
Wolters Kluwer neemt het Berlijnse legaltech-bedrijf Libra over, dat de Libra AI-Assistant heeft ontwikkeld voor legal research, documentanalyse en drafting binnen een beveiligde omgeving. Met deze overname wil Wolters Kluwer zijn bestaande AI-oplossingen versterken en integreren met hoogwaardige juridische content. Libra onderscheidt zich door een workspace-aanpak waarin juridische databanken, documentreview, workflowondersteuning en integraties met Word en Outlook samenkomen. De startup, opgericht in 2023, bedient een snelgroeiende Europese klantenbasis en verwacht eind 2025 circa € 5 miljoen aan terugkerende omzet. De combinatie van Libra’s technologie en Wolters Kluwer’s content moet leiden tot een nieuwe standaard voor nauwkeurige, veilige en compliant juridische AI. De transactie wordt naar verwachting in november 2025 afgerond.
OpenAI lanceert ChatGPT 5.1
Is het je ooit opgevallen hoe een AI soms ófwel superslim is, ófwel prettig klinkt — maar zelden allebei? Met de introductie van GPT‑5.1 verandert dat. Deze nieuwste versie van OpenAI’s taalmodel maakt AI‑interactie niet alleen sneller en accurater, maar ook natuurlijker. En belangrijker nog: het laat zien dat AI juridisch relevanter wordt — niet door show, maar door echte verbetering.
Prompt van de Week: Schrijf een compliance-advies in plain language
Regelgeving zoals de Wwft of AI Act is vaak complex – maar jouw cliënten en collega’s hebben vooral behoefte aan helderheid. Deze prompt helpt je om ingewikkelde compliance-eisen te vertalen naar begrijpelijke, praktische taal. Gebruik het model als een schrijfcoach die je helpt de kern van de regel te vinden, de impact uit te leggen en concrete stappen te formuleren. Zo maak je van juridische naleving geen papieren verplichting, maar een verhaal dat iedereen in de organisatie begrijpt. Perfect voor compliance-afdelingen, juristen en beleidsadviseurs die helder en overtuigend willen communiceren.
Conceptwetsvoorstel naburig recht deepfakes van personen
Het concept-wetsvoorstel Wet naburig recht deepfakes van personen introduceert een nieuw recht waarmee iedere natuurlijke persoon kan bepalen of en hoe een deepfake van zijn of haar stem of uiterlijk mag worden gebruikt. Het recht geldt ook voor nabestaanden tot zeventig jaar na overlijden en is in beginsel niet overdraagbaar. Deepfakes zonder toestemming worden expliciet strafbaar. Het voorstel vult lacunes in het portretrecht, de AVG en de AI-verordening en verklaart bepalingen uit het auteurs- en filmauteursrecht van overeenkomstige toepassing. Burgers krijgen zo juridische zeggenschap over hun digitale representatie, waarmee Nederland een voortrekkersrol inneemt in AI-gerelateerde persoonlijkheidsbescherming.
Prompt-injecties vermomd als URL’s: nieuw risico voor AI-browsers
Onderzoekers van NeuralTrust ontdekten dat OpenAI’s Atlas-browser kwetsbaar is voor een nieuw type prompt-injectie, vermomd als een gewone URL. Kwaadwillenden kunnen een zogenaamd webadres zo manipuleren dat het net niet als geldige link wordt herkend. De browser ziet de invoer dan als natuurlijke taal en voert die uit als een opdracht van de gebruiker. Wie zo’n link kopieert of plakt, kan onbedoeld acties laten uitvoeren of data blootstellen. NeuralTrust adviseert daarom strengere invoercontroles en expliciete bevestigingen bij gevoelige handelingen. OpenAI heeft nog niet officieel gereageerd op het onderzoek.