Inzichten
Grote AI-bedrijven richten gezamenlijk Agentic AI Foundation op
OpenAI, Anthropic en Google hebben samen met andere grote techbedrijven de Agentic AI Foundation opgericht onder de Linux Foundation, met als doel het ontwikkelen van open standaarden voor AI-agents. De stichting richt zich op interoperabiliteit tussen AI-systemen die zelfstandig taken uitvoeren, om fragmentatie tussen gesloten ecosystemen te voorkomen. De kern van het initiatief bestaat uit drie projecten: het Model Context Protocol (MCP), AGENTS.md en het open-source framework Goose. Deze projecten maken het mogelijk dat AI-modellen op gestandaardiseerde wijze kunnen communiceren met tools, databronnen en software. De technologieën zijn ingebracht door respectievelijk Anthropic, OpenAI en Block. Het uiteindelijke effect hangt af van de mate waarin deze standaarden breed worden toegepast door ontwikkelaars en AI-platforms.
Mistral AI introduceert nieuwe stappen in open-source AI voor softwareontwikkeling
Het Franse AI-bedrijf Mistral AI heeft begin december 2025 opnieuw een reeks producten aangekondigd die zijn gericht op softwareontwikkeling en programmeerondersteuning. Kort na de introductie van zijn nieuwste algemene taalmodel presenteerde Mistral Devstral 2, een gespecialiseerd code- en programmeermodel, samen met Mistral Vibe CLI, een open-source agentic tool voor geautomatiseerde code-interactie. Met deze aankondigingen positioneert het bedrijf zich nadrukkelijk op het snijvlak van open-source AI, autonome agents en praktische inzetbaarheid voor ontwikkelaars.
Weer een nieuwe ChatGPT-versie. Merken we met GPT-5.2 nu écht verschil?
GPT-5.2 is een technische verbetering ten opzichte van eerdere ChatGPT-versies, maar vormt geen fundamentele doorbraak.
De winst zit vooral in vloeiendere teksten, iets minder fouten en beter omgaan met langere context, niet in inhoudelijke intelligentie.
De overtuigende stijl vergroot juist het risico dat oppervlakkige of onjuiste analyses onkritisch worden overgenomen. Verbeterde tool-integratie en automatisering leveren efficiëntie op, maar maken controle en foutdetectie complexer. GPT-5.2 blijft afhankelijk van duidelijke input en menselijk toezicht en neemt geen verantwoordelijkheid voor conclusies. De echte meerwaarde ontstaat alleen wanneer professionals het model blijven gebruiken als hulpmiddel, niet als autoriteit.
AFM: 12 bouwstenen voor veiliger inzet geavanceerde (GenAI)-audittools
Geavanceerde audittools zoals (Gen)AI bieden accountantsorganisaties kansen voor efficiënter werken, hogere kwaliteit en aantrekkelijker werkgeverschap. De AFM moedigt verantwoord en beheerst gebruik aan, maar ziet dat het fundament bij veel organisaties nog verbetering behoeft. Door nieuwe technologieën en digitalisering verandert de controlepraktijk aanzienlijk. Vertrouwen blijft cruciaal: AI is een hulpmiddel, geen vervanging van professioneel oordeel, en mag geen blackbox zijn. De AFM presenteert 12 bouwstenen voor beheerst gebruik met nadruk op risicomanagement, datakwaliteit en informatiebeveiliging.
RechtspraakGPT: interne AI-assistent voor niet-gevoelige ondersteuningstaken
De Rechtspraak heeft een interne AI-assistent geïntroduceerd onder de naam RechtspraakGPT, die beschikbaar is voor alle medewerkers en ondersteuning biedt bij niet-gevoelige taken zoals het opstellen, verbeteren en samenvatten van memo’s, beleidsstukken en presentaties, waarbij expliciet is bepaald dat de tool niet mag worden gebruikt voor rechterlijke beslissingen, personeelszaken, vertrouwelijke documenten of het verwerken van persoonsgegevens; de huidige versie betreft een eerste implementatie die zonder internetverbinding werkt en is bedoeld voor werkzaamheden buiten het rechterlijke domein, terwijl verdere doorontwikkeling voor de komende periode is aangekondigd.
De Omnibus-wet en de AI Act: koerswijziging of strategische fine-tuning?
De Omnibus-wet verschuift het tijdpad voor hoogrisico-AI door de inwerkingtreding afhankelijk te maken van een besluit van de Europese Commissie, met automatische fallback-datums. De inhoudelijke verplichtingen voor hoogrisico-systemen blijven ongewijzigd, behalve het vervallen van de registratieplicht bij uitzonderingsgronden. De verplichting tot AI-geletterdheid wordt vervangen door een taak voor Commissie en lidstaten om scholing te stimuleren. Ontwikkelaars krijgen een ruimere wettelijke basis om bijzondere persoonsgegevens te verwerken voor bias- en kwaliteitscontrole. Conformiteitsbeoordelingen mogen worden geïntegreerd met andere EU-procedures en sandboxes kunnen op Unieniveau worden ingericht. Het voorstel maakt de AI Act uitvoerbaarder zonder de kernnormen te verzwakken; organisaties moeten hun compliancevoorbereidingen voortzetten.
TNO: Sterke stijging gebruik generatieve AI door overheid
Dat het gebruik van generatieve AI binnen de overheid groeit, wisten we. Maar zó snel? De nieuwe Overheidsbrede Monitor Generatieve AI 2025 van TNO laat een bijna ontwrichtend tempo zien: in één jaar tijd stijgt het aantal GenAI-toepassingen van 8 naar 81. Waar gemeenten vorig jaar nog voorzichtig experimenteerden, is GenAI inmiddels onderdeel geworden van de dagelijkse praktijk van tientallen overheidsorganisaties. Deze groei is indrukwekkend, maar laat ook een onderbelichte realiteit zien: de Nederlandse overheid digitaliseert sneller dan haar eigen governance, infrastructuur en juridische kaders kunnen bijbenen.
Denken vóór je AI inzet: waarom de volgorde bepaalt of je scherper wordt of afhankelijk
In de juridische praktijk zien we een opvallende ontwikkeling: professionals kunnen dankzij AI sneller werken, maar ervaren tegelijkertijd dat hun vermogen om zelfstandig te redeneren afneemt zodra het model even niet beschikbaar is. Het gaat daarbij niet om incidenteel ongemak, maar om een bredere cognitieve verschuiving. Steeds meer juristen signaleren dat zij moeite hebben om een document, advies of analyse te starten zonder eerst een AI-consult te doen.
NOvA: vraag cliënten vooraf toestemming voor inzet AI
De NOvA heeft nieuwe aanbevelingen gepubliceerd voor verantwoord AI-gebruik in de advocatuur. AI wordt daarin nadrukkelijk gepositioneerd als hulpmiddel dat alleen kan worden ingezet binnen de kernwaarden van de beroepsgroep. De richtsnoeren zijn opgebouwd rond vijf thema’s: deskundigheid, vertrouwelijkheid, onafhankelijkheid, integriteit en partijdigheid.
Advocaten moeten AI-output altijd verifiëren, datastromen beheersen en zorgvuldig omgaan met persoonsgegevens.
Opvallend is de aanbeveling om vooraf toestemming van cliënten te vragen bij AI-gebruik in dossiers. De NOvA benadrukt dat de advocaat te allen tijde verantwoordelijk blijft voor zowel het advies als de bescherming van cliëntbelangen.
Chatshaming in de rechtspraktijk: wanneer kritiek op AI-gebruik zelf ontspoort
In het juridisch werkveld is het gebruik van generatieve AI inmiddels bijna alledaags. Advocaten, juristen en studenten gebruiken systemen zoals ChatGPT en Perplexity om concepten te verkennen, bronnen te vinden of argumentaties te structureren. Maar parallel aan die ontwikkeling ontstaat een nieuw fenomeen: chatshaming—het publiekelijk aan de schandpaal nagelen van juristen bij (vermeend) AI-gebruik en/of AI-fouten.