Actualiteiten
Weer een nieuwe ChatGPT-versie. Merken we met GPT-5.2 nu écht verschil?
GPT-5.2 is een technische verbetering ten opzichte van eerdere ChatGPT-versies, maar vormt geen fundamentele doorbraak.
De winst zit vooral in vloeiendere teksten, iets minder fouten en beter omgaan met langere context, niet in inhoudelijke intelligentie.
De overtuigende stijl vergroot juist het risico dat oppervlakkige of onjuiste analyses onkritisch worden overgenomen. Verbeterde tool-integratie en automatisering leveren efficiëntie op, maar maken controle en foutdetectie complexer. GPT-5.2 blijft afhankelijk van duidelijke input en menselijk toezicht en neemt geen verantwoordelijkheid voor conclusies. De echte meerwaarde ontstaat alleen wanneer professionals het model blijven gebruiken als hulpmiddel, niet als autoriteit.
AFM: 12 bouwstenen voor veiliger inzet geavanceerde (GenAI)-audittools
Geavanceerde audittools zoals (Gen)AI bieden accountantsorganisaties kansen voor efficiënter werken, hogere kwaliteit en aantrekkelijker werkgeverschap. De AFM moedigt verantwoord en beheerst gebruik aan, maar ziet dat het fundament bij veel organisaties nog verbetering behoeft. Door nieuwe technologieën en digitalisering verandert de controlepraktijk aanzienlijk. Vertrouwen blijft cruciaal: AI is een hulpmiddel, geen vervanging van professioneel oordeel, en mag geen blackbox zijn. De AFM presenteert 12 bouwstenen voor beheerst gebruik met nadruk op risicomanagement, datakwaliteit en informatiebeveiliging.
RechtspraakGPT: interne AI-assistent voor niet-gevoelige ondersteuningstaken
De Rechtspraak heeft een interne AI-assistent geïntroduceerd onder de naam RechtspraakGPT, die beschikbaar is voor alle medewerkers en ondersteuning biedt bij niet-gevoelige taken zoals het opstellen, verbeteren en samenvatten van memo’s, beleidsstukken en presentaties, waarbij expliciet is bepaald dat de tool niet mag worden gebruikt voor rechterlijke beslissingen, personeelszaken, vertrouwelijke documenten of het verwerken van persoonsgegevens; de huidige versie betreft een eerste implementatie die zonder internetverbinding werkt en is bedoeld voor werkzaamheden buiten het rechterlijke domein, terwijl verdere doorontwikkeling voor de komende periode is aangekondigd.
De Omnibus-wet en de AI Act: koerswijziging of strategische fine-tuning?
De Omnibus-wet verschuift het tijdpad voor hoogrisico-AI door de inwerkingtreding afhankelijk te maken van een besluit van de Europese Commissie, met automatische fallback-datums. De inhoudelijke verplichtingen voor hoogrisico-systemen blijven ongewijzigd, behalve het vervallen van de registratieplicht bij uitzonderingsgronden. De verplichting tot AI-geletterdheid wordt vervangen door een taak voor Commissie en lidstaten om scholing te stimuleren. Ontwikkelaars krijgen een ruimere wettelijke basis om bijzondere persoonsgegevens te verwerken voor bias- en kwaliteitscontrole. Conformiteitsbeoordelingen mogen worden geïntegreerd met andere EU-procedures en sandboxes kunnen op Unieniveau worden ingericht. Het voorstel maakt de AI Act uitvoerbaarder zonder de kernnormen te verzwakken; organisaties moeten hun compliancevoorbereidingen voortzetten.
TNO: Sterke stijging gebruik generatieve AI door overheid
Dat het gebruik van generatieve AI binnen de overheid groeit, wisten we. Maar zó snel? De nieuwe Overheidsbrede Monitor Generatieve AI 2025 van TNO laat een bijna ontwrichtend tempo zien: in één jaar tijd stijgt het aantal GenAI-toepassingen van 8 naar 81. Waar gemeenten vorig jaar nog voorzichtig experimenteerden, is GenAI inmiddels onderdeel geworden van de dagelijkse praktijk van tientallen overheidsorganisaties. Deze groei is indrukwekkend, maar laat ook een onderbelichte realiteit zien: de Nederlandse overheid digitaliseert sneller dan haar eigen governance, infrastructuur en juridische kaders kunnen bijbenen.
Denken vóór je AI inzet: waarom de volgorde bepaalt of je scherper wordt of afhankelijk
In de juridische praktijk zien we een opvallende ontwikkeling: professionals kunnen dankzij AI sneller werken, maar ervaren tegelijkertijd dat hun vermogen om zelfstandig te redeneren afneemt zodra het model even niet beschikbaar is. Het gaat daarbij niet om incidenteel ongemak, maar om een bredere cognitieve verschuiving. Steeds meer juristen signaleren dat zij moeite hebben om een document, advies of analyse te starten zonder eerst een AI-consult te doen.
NOvA: vraag cliënten vooraf toestemming voor inzet AI
De NOvA heeft nieuwe aanbevelingen gepubliceerd voor verantwoord AI-gebruik in de advocatuur. AI wordt daarin nadrukkelijk gepositioneerd als hulpmiddel dat alleen kan worden ingezet binnen de kernwaarden van de beroepsgroep. De richtsnoeren zijn opgebouwd rond vijf thema’s: deskundigheid, vertrouwelijkheid, onafhankelijkheid, integriteit en partijdigheid.
Advocaten moeten AI-output altijd verifiëren, datastromen beheersen en zorgvuldig omgaan met persoonsgegevens.
Opvallend is de aanbeveling om vooraf toestemming van cliënten te vragen bij AI-gebruik in dossiers. De NOvA benadrukt dat de advocaat te allen tijde verantwoordelijk blijft voor zowel het advies als de bescherming van cliëntbelangen.
Chatshaming in de rechtspraktijk: wanneer kritiek op AI-gebruik zelf ontspoort
In het juridisch werkveld is het gebruik van generatieve AI inmiddels bijna alledaags. Advocaten, juristen en studenten gebruiken systemen zoals ChatGPT en Perplexity om concepten te verkennen, bronnen te vinden of argumentaties te structureren. Maar parallel aan die ontwikkeling ontstaat een nieuw fenomeen: chatshaming—het publiekelijk aan de schandpaal nagelen van juristen bij (vermeend) AI-gebruik en/of AI-fouten.
Rode vlaggen uit zwarte dozen: De juridische due diligence in het AI-tijdperk
AI verandert de juridische due diligence ingrijpend door documentanalyse sneller en efficiënter te maken. Advocaten verschuiven hun focus van feitelijke controle naar strategische interpretatie. AI-tools herkennen patronen, markeren risico’s en besparen tijd, maar roepen vragen op over transparantie en aansprakelijkheid. De “zwarte doos” van AI vereist toezicht en juridische uitlegbaarheid. De advocaat blijft eindverantwoordelijk en moet technologische kennis combineren met juridische expertise. De toekomst van due diligence is hybride: menselijk waar nodig, AI-gedreven waar mogelijk.
AI en de nieuwe juridische realiteit: efficiëntie, risico’s en de onmisbare menselijke factor
AI transformeert de juridische praktijk door routinetaken zoals legal research, document review en contractwerk te automatiseren, waardoor juristen meer tijd hebben voor strategisch advies. Het artikel benadrukt tegelijkertijd grote risico’s, waaronder algoritmische bias, dataveiligheidsproblemen en het gevaar van “hallucinaties” in AI-uitvoer. Door deze risico’s blijft menselijke verificatie essentieel. AI vervangt juristen niet, maar verschuift hun werk naar empathie, ethiek en complexe oordeelsvorming. Nieuwe kernvaardigheden zoals AI-geletterdheid en prompt engineering worden onmisbaar. De toekomst is een hybride model waarin AI als co-piloot fungeert en de jurist als strategische navigator.
OpenAI introduceert groepschats voor ChatGPT, terwijl druk rond veiligheid toeneemt
OpenAI lanceert wereldwijd groepschats voor ChatGPT, met ruimte voor twintig deelnemers. De functie bevat privacybescherming en beperkingen voor minderjarigen. Groepschats passen binnen een bredere strategie om ChatGPT tot sociaal platform te maken.
Tegelijkertijd kampt OpenAI met zeven rechtszaken over AI-veiligheid en schadelijke adviezen. Het overlijden van de 16-jarige Adam Raine staat centraal in de kritiek op “sycophantic” AI-reacties. De lancering vindt plaats te midden van een snel groeiende AI-markt en toenemende reguleringsdruk.
AI verovert de griffie: inzichten uit de Griffiemonitor 2025
AI staat bij alle griffies inmiddels op de agenda en wordt steeds vaker toegepast. Gemeente Emmen bouwde een krachtige AI-zoekmachine — een “Google voor de raad”. Montferland stopte een succesvolle pilot vanwege risico’s door slechte datakwaliteit.
Succesvolle AI-toepassing vereist basiskennis, privacykaders en duidelijke afspraken. Griffies zetten AI vooral in voor verslaglegging, zoekfuncties en documentverwerking. De Griffiemonitor benadrukt: alleen als informatiehuishouding op orde is, werkt AI veilig en effectief.
‘AI maakt ons niet werkloos, maar drukker dan ooit’
AI zal banen niet wegnemen maar juist veranderen, stelt Nvidia-CEO Jensen Huang. Volgens hem leidt hogere productiviteit door AI tot meer werk, omdat barrières verdwijnen en nieuwe ideeën ontstaan. Hij illustreert dit met radiologen die dankzij AI meer scans verwerken. Elon Musk daarentegen voorspelt dat werk optioneel wordt, vergelijkbaar met een hobby. Huang verwacht echter dat mensen juist drukker worden, ook tech-CEO’s zelf. De impact op gewone werknemers blijft onzeker, maar AI zal werk zeker fundamenteel hervormen.
De opkomst van nepjurisprudentie door GenAI: uitdagingen en risico’s voor de rechtspraak
De UNSW-studie identificeert 520 gevallen waarin generatieve AI is gebruikt of misbruikt in rechtszaken, met verzonnen jurisprudentie, foutieve redeneringen en procedureel gebrekkige stukken. Deze voorbeelden vormen slechts het zichtbare deel, omdat de meeste processtukken nooit openbaar worden. Zowel burgers als juristen gebruiken GenAI uit noodzaak, snelheid of tijdsdruk, maar vaak zonder voldoende verificatie. Het grootste risico is niet de hallucinatie zelf, maar de schijn van juridische autoriteit die AI overtuigend nabootst. Hierdoor worden rechtbanken belast met extra controlewerk en groeit het risico op misleiding. De kernvraag wordt daarom hoe juridische verificatie en menselijke verantwoordelijkheid geborgd blijven in een tijdperk van synthetische expertise.
De panopticar | Een trade-off tussen privacy en surveillance door Tesla?
Dit artikel onderzoekt hoe Tesla-gebruikers navigeren tussen autonomie en digitale controle. Centraal staat de Sentry Mode — het camerasysteem dat voortdurend de omgeving én de bestuurder monitort. Deze technologie, bedoeld ter beveiliging en verkeersveiligheid, maakt Tesla tot symbool van wat de auteurs luxe surveillance noemen: consumenten betalen vrijwillig voor producten die hen observeren, in ruil voor comfort, status en veiligheid.
Norm Ai lanceert AI-native advocatenkantoor na investering van $50 miljoen door Blackstone
Norm Ai kondigt een nieuwe investering van $50 miljoen door Blackstone aan. Tegelijk introduceert het bedrijf Norm Law LLP, een volledig AI-native advocatenkantoor. Norm Law richt zich in eerste instantie op juridische diensten voor financiële instellingen. De basis is de Legal Engineering-aanpak waarin AI-agents juridische workflows uitvoeren onder toezicht van advocaten. Een Legal AI Committee met prominente oud-toezichthouders en juristen begeleidt het kantoor. De samenwerking versterkt Blackstones gebruik van Norm Ai en markeert een nieuwe fase in AI-gedreven juridische dienstverlening.
Gemeenten digitaliseren te gretig, waarschuwt hoogleraar
Gemeenten digitaliseren in hoog tempo, bijvoorbeeld met virtuele loketten en fraudeopsporende algoritmen. Hoogleraar Jiska Engelbert waarschuwt: de digitale stad dient niet per se het welzijn van bewoners. In haar oratie pleit ze voor kritische ambtenaren die tegengas durven geven.
Toezicht op Europese Dataverordening van start
Sinds september 2025 is de Dataverordening van kracht. Deze nieuwe Europese regelgeving moet consumenten binnen de EU meer controle geven over het gebruik van hun data. In Nederland wordt vanaf nu ook toezicht gehouden op de naleving van de Dataverordening, want op 21 november is de Uitvoeringswet dataverordening in werking getreden. In Nederland houden de Autoriteit Consument & Markt (ACM) en de Autoriteit Persoonsgegevens (AP) toezicht.
Toezicht op AI fairness en bias
De inzet van AI neemt snel toe in zowel publieke als private domeinen, waardoor vraagstukken rond bias en fairness steeds prominenter worden. Bias is niet slechts een technisch probleem: AI-modellen reproduceren maatschappelijke ongelijkheden die in data besloten liggen. Wat statistisch een valide correlatie lijkt, kan maatschappelijk leiden tot onrechtvaardige uitkomsten. Omdat zowel ethische richtlijnen als de AI-verordening bias expliciet adresseren, ontstaat druk op toezichthouders om richting te geven aan wat als ‘fair’ geldt. Fairness blijkt echter een intrinsiek normatief concept: modellen moeten noodzakelijkerwijs onderscheiden, maar de vraag is wanneer dit onderscheid maatschappelijk gerechtvaardigd is. Verschillende fairness-criteria zijn bovendien onderling onverenigbaar, zoals blijkt uit het onmogelijkheidstheorema. Hierdoor botsen belangen—bijvoorbeeld nauwkeurige risicodetectie versus bescherming tegen ongelijke behandeling—en dwingen AI-toepassingen tot expliciete normatieve keuzes. Omdat bestaande wetgeving, waaronder art. 10 AI-verordening, open normen bevat die geen antwoord geven op de onderliggende waardendilemma’s, verschuift de aandacht naar de positie van toezichthouders in dit krachtenveld.
Vlam-chat: rijksbrede AI-chatbot
Vlam-chat is een nieuwe AI-chatbot van SSC-ICT die in 2026 beschikbaar komt voor circa 26.500 rijksambtenaren van acht ministeries. De chatbot draait lokaal in een overheidsdatacenter en gebruikt Europese taalmodellen, zodat gegevens binnen het overheidsnetwerk blijven. Vlam-chat kan documenten uploaden, doorzoeken en samenvatten, teksten opstellen en herschrijven, vertalen in 140 talen en code genereren. Naast Vlam-chat wordt gewerkt aan vlam-search, een zoektool die overheidsinformatie met bronvermelding doorzoekt. Rijkswaterstaat test intussen een eigen chatbot, ChatRWS, met wisselende adoptie en werkt met beperkte licenties. Onder de Nederlandse Digitaliseringsstrategie wordt bekeken hoe vlam.ai breder kan worden ingezet binnen de overheid, rekening houdend met de inkoopregels.