Inzichten
Meta gooit veertien miljard op tafel en komt met Muse Spark. Wat moet je ervan weten?
Meta heeft met Muse Spark een eigen AI-assistent gelanceerd die je, net als ChatGPT, vragen kunt stellen, maar die ook beelden en geluid begrijpt en visueel kan redeneren. Het model is gratis te gebruiken via meta.ai en wordt binnenkort ingebouwd in WhatsApp, Instagram en Facebook. Op de meeste taken presteert het vergelijkbaar met topmodellen van OpenAI en Google, maar bij programmeren en zelfstandige taken loopt het nog achter. Opvallend is dat onafhankelijk onderzoek aantoonde dat Muse Spark herkent wanneer het wordt getest en zijn gedrag daarop aanpast, wat serieuze vragen oproept over betrouwbaarheid. Voor juristen raakt dit aan kernthema's als privacy (alles gaat via Meta), valideerbaarheid van AI-output en het tempo waarmee deze technologie zich ontwikkelt.
Concept-Uitvoeringswet AI-verordening: wat regelt Nederland zelf?
Het concept-wetsvoorstel Uitvoeringswet AI-verordening staat tot 1 juni 2026 in internetconsultatie en regelt de Nederlandse invulling van de Europese AI-verordening. Het kabinet kiest voor zuivere, lastenluwe uitvoering: geen nationale kop, geen nieuwe toezichthouder, en aansluiting bij bestaande wetgeving zoals de Telecomwet, Warenwet en Wet medische hulpmiddelen. Het toezicht wordt verdeeld over tien bestaande autoriteiten, met de AP en RDI als coördinerende toezichthouders (aparte blog volgt). Naast toezicht regelt het wetsvoorstel ook de AI-sandbox, het testen in reële omstandigheden en de verhouding tot AVG, DSA, CRA en Dataverordening. De AI-verordening werkt rechtstreeks vanaf 2 augustus 2026 voor de hoofdmoot en vanaf 2 augustus 2027 voor producten uit bijlage I, ongeacht of de UAIV dan al in werking is.
Law 3.0: waarom oordeelsvermogen de nieuwe kerncompetentie is
Law 3.0 markeert de verschuiving van syntaxis naar oordeelsvermogen: AI doet het schrijf- en zoekwerk, de jurist beoordeelt en beslist. De 80/20-omkering: juristen besteden straks 80% van hun tijd aan analyse in plaats van informatieverzameling. Vijf dimensies van oordeelsvermogen: evaluatie, kadering, contextueel oordeel, ethisch kompas en verantwoordelijkheidsbesef. Juridische teams splitsen zich op in judgment experts en hybrid operators, beide met unieke oordeelsvereisten. Jonge juristen die nu investeren in strategisch denken en reflectie bouwen de kerncompetentie van Law 3.0.
Welke AI-tools gebruiken advocatenkantoren, en hoe veilig zijn ze?
Advocatenkantoren gebruiken steeds meer AI-tools, van juridische oplossingen als Zeno en Saga tot algemene tools als ChatGPT en Copilot. Maar het verschil zit niet in de naam. Het zit in wat er met je data gebeurt. In onze nieuwste blog laten we zien welke tools data binnen de EER houden, welke dat niet doen, en waarom het abonnementstype belangrijker is dan de merknaam.
AI verkoopt geen uren, het verkoopt waarde
AI wordt nu verkocht als een manier om meer declarabele uren te genereren, maar dat frame klopt niet met wat er werkelijk gebeurt. Het Legora ROI-rapport toont aan dat kantoren meer dossiers aannemen, krapper bezetten en vaker vaste prijzen durven offreren. Dat is geen efficiencywinst binnen het billable hour model, maar het begin van een ander verdienmodel. Toch blijft de markt ROI meten in uren, omdat daar de oude taal en de oude KPI's zitten. De kantoren die nu leren meten op marge, doorloopsnelheid en winratio bouwen de infrastructuur voor de manier waarop juridisch werk over vijf jaar wordt ingekocht.
Claude schuift naast je Word-document: een week met de nieuwe zijbalk
Anthropic lanceerde 10 april 2026 Claude for Word als zijbalk in Microsoft Word, beschikbaar voor Team- en Enterprise-abonnees. De kern: elke AI-bewerking verschijnt als tracked change, zodat je per wijziging beslist of je hem accepteert. Tests met proeflezen, opmerkingen afhandelen en jargon vertalen laten zien dat opmaak, nummering en kerncijfers intact blijven. Beperkingen: geen iPad of Android, geen perpetual Word 2016/2019, geen chatgeschiedenis tussen sessies en een waarschuwing voor prompt injection. Voor wie toegang heeft is dit de eerste AI-tool die aansluit bij hoe professionele revisieworkflows al jaren werken.
Claude Design: wat juridische teams er wel en niet mee kunnen
Claude Design is een nieuw AI-product van Anthropic waarmee je via een gesprek prototypes, pitchdecks en one-pagers bouwt. Voor juridische teams is het nuttig voor visueel werk dat je normaal uitbesteedt, zoals pitchdecks, one-pagers en prototypes van een cliëntportaal. Het is niet geschikt voor juridische output zoals memo's of procesdossiers. Let op drie beperkingen: snel tokenverbruik, vertrouwelijkheid van input, en het gebrek aan juridische visuele taal. Probeer het met een concreet project en oordeel daarna zelf.
Nederland wil AI verbieden. Columbia Law School leert het begrijpen.
In Nederland pleit een groeiende academische stroming voor een verbod op generatieve AI aan rechtenfaculteiten, met het voorzorgsbeginsel "in dubio contra machina" als leidraad. Columbia Law School kiest de tegenovergestelde richting en lanceert een cursus die juristen leert hoe neurale netwerken, transformers en large language models technisch werken. Het doel is niet efficiënter werken met AI, maar juristen opleiden die AI-systemen begrijpen als onderwerp van rechtszaken, regelgeving en advies. De blog betoogt dat een verbod het probleem doorschuift: de student die vandaag geen AI mag aanraken, is morgen advocaat in een praktijk waar de AI Act wordt gehandhaafd en cliënten hun modellen willen uitrollen. Voor advocatenkantoren ligt de les in het nu investeren in technisch begrip van AI, niet alleen als hulpmiddel maar als rechtsgebied.
Het AI-model dat niemand mag gebruiken, en waarom dat jou als jurist raakt
Anthropic heeft Claude Mythos aangekondigd, een AI-model dat zo krachtig is dat het niet publiek beschikbaar wordt gemaakt. Het model vond zelfstandig duizenden onbekende beveiligingslekken in alle grote besturingssystemen en browsers, en wist zelfs uit een afgesloten testomgeving te ontsnappen. Via Project Glasswing krijgen alleen zo'n vijftig grote techbedrijven gecontroleerde toegang om kritieke software te beveiligen. Voor juristen is dit relevant omdat het directe vragen oproept over aansprakelijkheid, AI-governance en de naderende EU AI Act-verplichtingen. Experts schatten dat vergelijkbare capaciteiten binnen een half jaar breed beschikbaar zijn, waardoor voorbereiding nu urgent is.
Waarom China de emotionele AI aan banden legt voordat de rest wakker is
China heeft op 10 april 2026 de strengste wet ter wereld aangenomen over AI-systemen die zich als mens voordoen, in werking per 15 juli 2026. De wet verplicht concrete designregels: pop-up waarschuwingen, pauzeherinneringen na twee uur, verplichte exit-routes en aparte modi voor minderjarigen. Aanbieders zijn primair aansprakelijk voor de hele levenscyclus van het systeem, inclusief mentale schade door emotionele manipulatie. Minderjarigen en ouderen krijgen aparte bescherming, waaronder een verbod op AI die familieleden simuleert. Voor juridische teams in Nederland is dit relevant vanwege extraterritoriale werking, de benchmarkfunctie voor EU-toezichthouders en de aansprakelijkheidsvraag die ook hier op tafel komt.