Inzichten
De Omnibus-wet en de AI Act: koerswijziging of strategische fine-tuning?
De Omnibus-wet verschuift het tijdpad voor hoogrisico-AI door de inwerkingtreding afhankelijk te maken van een besluit van de Europese Commissie, met automatische fallback-datums. De inhoudelijke verplichtingen voor hoogrisico-systemen blijven ongewijzigd, behalve het vervallen van de registratieplicht bij uitzonderingsgronden. De verplichting tot AI-geletterdheid wordt vervangen door een taak voor Commissie en lidstaten om scholing te stimuleren. Ontwikkelaars krijgen een ruimere wettelijke basis om bijzondere persoonsgegevens te verwerken voor bias- en kwaliteitscontrole. Conformiteitsbeoordelingen mogen worden geïntegreerd met andere EU-procedures en sandboxes kunnen op Unieniveau worden ingericht. Het voorstel maakt de AI Act uitvoerbaarder zonder de kernnormen te verzwakken; organisaties moeten hun compliancevoorbereidingen voortzetten.
TNO: Sterke stijging gebruik generatieve AI door overheid
Dat het gebruik van generatieve AI binnen de overheid groeit, wisten we. Maar zó snel? De nieuwe Overheidsbrede Monitor Generatieve AI 2025 van TNO laat een bijna ontwrichtend tempo zien: in één jaar tijd stijgt het aantal GenAI-toepassingen van 8 naar 81. Waar gemeenten vorig jaar nog voorzichtig experimenteerden, is GenAI inmiddels onderdeel geworden van de dagelijkse praktijk van tientallen overheidsorganisaties. Deze groei is indrukwekkend, maar laat ook een onderbelichte realiteit zien: de Nederlandse overheid digitaliseert sneller dan haar eigen governance, infrastructuur en juridische kaders kunnen bijbenen.
Denken vóór je AI inzet: waarom de volgorde bepaalt of je scherper wordt of afhankelijk
In de juridische praktijk zien we een opvallende ontwikkeling: professionals kunnen dankzij AI sneller werken, maar ervaren tegelijkertijd dat hun vermogen om zelfstandig te redeneren afneemt zodra het model even niet beschikbaar is. Het gaat daarbij niet om incidenteel ongemak, maar om een bredere cognitieve verschuiving. Steeds meer juristen signaleren dat zij moeite hebben om een document, advies of analyse te starten zonder eerst een AI-consult te doen.
NOvA: vraag cliënten vooraf toestemming voor inzet AI
De NOvA heeft nieuwe aanbevelingen gepubliceerd voor verantwoord AI-gebruik in de advocatuur. AI wordt daarin nadrukkelijk gepositioneerd als hulpmiddel dat alleen kan worden ingezet binnen de kernwaarden van de beroepsgroep. De richtsnoeren zijn opgebouwd rond vijf thema’s: deskundigheid, vertrouwelijkheid, onafhankelijkheid, integriteit en partijdigheid.
Advocaten moeten AI-output altijd verifiëren, datastromen beheersen en zorgvuldig omgaan met persoonsgegevens.
Opvallend is de aanbeveling om vooraf toestemming van cliënten te vragen bij AI-gebruik in dossiers. De NOvA benadrukt dat de advocaat te allen tijde verantwoordelijk blijft voor zowel het advies als de bescherming van cliëntbelangen.
Chatshaming in de rechtspraktijk: wanneer kritiek op AI-gebruik zelf ontspoort
In het juridisch werkveld is het gebruik van generatieve AI inmiddels bijna alledaags. Advocaten, juristen en studenten gebruiken systemen zoals ChatGPT en Perplexity om concepten te verkennen, bronnen te vinden of argumentaties te structureren. Maar parallel aan die ontwikkeling ontstaat een nieuw fenomeen: chatshaming—het publiekelijk aan de schandpaal nagelen van juristen bij (vermeend) AI-gebruik en/of AI-fouten.
Rode vlaggen uit zwarte dozen: De juridische due diligence in het AI-tijdperk
AI verandert de juridische due diligence ingrijpend door documentanalyse sneller en efficiënter te maken. Advocaten verschuiven hun focus van feitelijke controle naar strategische interpretatie. AI-tools herkennen patronen, markeren risico’s en besparen tijd, maar roepen vragen op over transparantie en aansprakelijkheid. De “zwarte doos” van AI vereist toezicht en juridische uitlegbaarheid. De advocaat blijft eindverantwoordelijk en moet technologische kennis combineren met juridische expertise. De toekomst van due diligence is hybride: menselijk waar nodig, AI-gedreven waar mogelijk.
AI en de nieuwe juridische realiteit: efficiëntie, risico’s en de onmisbare menselijke factor
AI transformeert de juridische praktijk door routinetaken zoals legal research, document review en contractwerk te automatiseren, waardoor juristen meer tijd hebben voor strategisch advies. Het artikel benadrukt tegelijkertijd grote risico’s, waaronder algoritmische bias, dataveiligheidsproblemen en het gevaar van “hallucinaties” in AI-uitvoer. Door deze risico’s blijft menselijke verificatie essentieel. AI vervangt juristen niet, maar verschuift hun werk naar empathie, ethiek en complexe oordeelsvorming. Nieuwe kernvaardigheden zoals AI-geletterdheid en prompt engineering worden onmisbaar. De toekomst is een hybride model waarin AI als co-piloot fungeert en de jurist als strategische navigator.
OpenAI introduceert groepschats voor ChatGPT, terwijl druk rond veiligheid toeneemt
OpenAI lanceert wereldwijd groepschats voor ChatGPT, met ruimte voor twintig deelnemers. De functie bevat privacybescherming en beperkingen voor minderjarigen. Groepschats passen binnen een bredere strategie om ChatGPT tot sociaal platform te maken.
Tegelijkertijd kampt OpenAI met zeven rechtszaken over AI-veiligheid en schadelijke adviezen. Het overlijden van de 16-jarige Adam Raine staat centraal in de kritiek op “sycophantic” AI-reacties. De lancering vindt plaats te midden van een snel groeiende AI-markt en toenemende reguleringsdruk.
AI verovert de griffie: inzichten uit de Griffiemonitor 2025
AI staat bij alle griffies inmiddels op de agenda en wordt steeds vaker toegepast. Gemeente Emmen bouwde een krachtige AI-zoekmachine — een “Google voor de raad”. Montferland stopte een succesvolle pilot vanwege risico’s door slechte datakwaliteit.
Succesvolle AI-toepassing vereist basiskennis, privacykaders en duidelijke afspraken. Griffies zetten AI vooral in voor verslaglegging, zoekfuncties en documentverwerking. De Griffiemonitor benadrukt: alleen als informatiehuishouding op orde is, werkt AI veilig en effectief.
‘AI maakt ons niet werkloos, maar drukker dan ooit’
AI zal banen niet wegnemen maar juist veranderen, stelt Nvidia-CEO Jensen Huang. Volgens hem leidt hogere productiviteit door AI tot meer werk, omdat barrières verdwijnen en nieuwe ideeën ontstaan. Hij illustreert dit met radiologen die dankzij AI meer scans verwerken. Elon Musk daarentegen voorspelt dat werk optioneel wordt, vergelijkbaar met een hobby. Huang verwacht echter dat mensen juist drukker worden, ook tech-CEO’s zelf. De impact op gewone werknemers blijft onzeker, maar AI zal werk zeker fundamenteel hervormen.