Inzichten

Toezicht op AI fairness en bias
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Toezicht op AI fairness en bias

De inzet van AI neemt snel toe in zowel publieke als private domeinen, waardoor vraagstukken rond bias en fairness steeds prominenter worden. Bias is niet slechts een technisch probleem: AI-modellen reproduceren maatschappelijke ongelijkheden die in data besloten liggen. Wat statistisch een valide correlatie lijkt, kan maatschappelijk leiden tot onrechtvaardige uitkomsten. Omdat zowel ethische richtlijnen als de AI-verordening bias expliciet adresseren, ontstaat druk op toezichthouders om richting te geven aan wat als ‘fair’ geldt. Fairness blijkt echter een intrinsiek normatief concept: modellen moeten noodzakelijkerwijs onderscheiden, maar de vraag is wanneer dit onderscheid maatschappelijk gerechtvaardigd is. Verschillende fairness-criteria zijn bovendien onderling onverenigbaar, zoals blijkt uit het onmogelijkheidstheorema. Hierdoor botsen belangen—bijvoorbeeld nauwkeurige risicodetectie versus bescherming tegen ongelijke behandeling—en dwingen AI-toepassingen tot expliciete normatieve keuzes. Omdat bestaande wetgeving, waaronder art. 10 AI-verordening, open normen bevat die geen antwoord geven op de onderliggende waardendilemma’s, verschuift de aandacht naar de positie van toezichthouders in dit krachtenveld.

Meer lezen
Vlam-chat: rijksbrede AI-chatbot
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Vlam-chat: rijksbrede AI-chatbot

Vlam-chat is een nieuwe AI-chatbot van SSC-ICT die in 2026 beschikbaar komt voor circa 26.500 rijksambtenaren van acht ministeries. De chatbot draait lokaal in een overheidsdatacenter en gebruikt Europese taalmodellen, zodat gegevens binnen het overheidsnetwerk blijven. Vlam-chat kan documenten uploaden, doorzoeken en samenvatten, teksten opstellen en herschrijven, vertalen in 140 talen en code genereren. Naast Vlam-chat wordt gewerkt aan vlam-search, een zoektool die overheidsinformatie met bronvermelding doorzoekt. Rijkswaterstaat test intussen een eigen chatbot, ChatRWS, met wisselende adoptie en werkt met beperkte licenties. Onder de Nederlandse Digitaliseringsstrategie wordt bekeken hoe vlam.ai breder kan worden ingezet binnen de overheid, rekening houdend met de inkoopregels.

Meer lezen
The risks and values of artificial intelligence: a legal and compliance perspective
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

The risks and values of artificial intelligence: a legal and compliance perspective

This article explores how the legal and compliance community must assess artificial intelligence systems that are often opaque, rapidly evolving, and deployed across multiple jurisdictions. It analyses key risks – privacy, bias, accountability, intellectual property, and regulatory uncertainty – while highlighting the demonstrable value AI brings to e-Discovery, compliance and governance functions. Practical frameworks for risk-based governance, transparency, and human oversight are provided, alongside insights into the specific risks and benefits of AI in eDiscovery, emphasizing the need for proactive and accountable stewardship to align innovation with justice and the rule of law.

Meer lezen
Wie is verantwoordelijk als AI faalt?
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Wie is verantwoordelijk als AI faalt?

Het onderzoek Who Is Responsible When AI Fails? (Hadan et al., 2025) analyseerde 202 echte AI-incidenten en concludeert dat de meeste schade niet voortkomt uit fouten in de code, maar uit gebrekkige governance en toezicht. Slechts 12% van de incidenten had een technische oorzaak, terwijl 58% te herleiden was tot organisatorische tekortkomingen zoals gebrek aan transparantie en naleving. Vooral deepfakes, ongeoorloofd datagebruik en problematische implementaties bleken veelvoorkomend. Incidenten werden zelden door ontwikkelaars zelf gemeld, wat wijst op een structureel gebrek aan verantwoordelijkheid. De auteurs pleiten voor verplichte rapportage, duidelijke toezichtstructuren en bescherming van klokkenluiders. Hun kernboodschap: AI-risico is levenscyclusrisico en vraagt om gedeelde verantwoordelijkheid van alle betrokken partijen

Meer lezen
Prompt van de Week: Besluitvormingsschema maken
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Prompt van de Week: Besluitvormingsschema maken

Sommige regels lenen zich perfect voor logica. Deze prompt helpt je om complexe wetgeving te vertalen naar een helder stappenplan: wie beslist wat, wanneer en op basis waarvan? Laat AI de structuur bouwen – van eerste vraag tot eindbeslissing – en gebruik het resultaat als intern beslisdocument of als fundament voor een legal-tech workflow. Ideaal voor compliance-officers, juristen en beleidsmakers die processen willen stroomlijnen en documenteerbare keuzes willen vastleggen.

Meer lezen
Het omnibusvoorstel en de AI Act: uitstel of onvoorspelbare start van het hoogrisicoregime?
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Het omnibusvoorstel en de AI Act: uitstel of onvoorspelbare start van het hoogrisicoregime?

Het Omnibusvoorstel van de Europese Commissie stelt voor om de hoogrisico-verplichtingen van de AI-verordening uit te stellen: voor bijlage III tot eind 2027 en voor bijlage I tot augustus 2028. De inwerkingtreding wordt afhankelijk gemaakt van de beschikbaarheid van standaarden en richtsnoeren, waardoor onzekerheid ontstaat over de daadwerkelijke startdatum. Als het voorstel niet tijdig vóór augustus 2026 wordt aangenomen, kunnen hoogrisico-regels technisch gezien toch gaan gelden. De Commissie behoudt bovendien de mogelijkheid om de verplichtingen alsnog eerder te laten ingaan. Dit maakt het tijdpad voor naleving minder voorspelbaar voor bedrijven. De rechtszekerheid voor marktdeelnemers en toezichthouders komt daardoor onder druk te staan.

Meer lezen
Gemini 3: Google’s nieuwe AI-model
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Gemini 3: Google’s nieuwe AI-model

Gemini 3 vormt een duidelijke stap vooruit in generatieve AI, vooral door zijn multimodale architectuur en sterk verbeterde instructietrouw. Het model presteert beter bij complexe juridische analyses, patroonherkenning en dossierverwerking dan eerdere generaties. In vergelijking met ChatGPT is Gemini 3 consistenter in redenering en beter in diep analytisch werk, terwijl ChatGPT sterker blijft in helderheid en educatieve toepassingen. Voor juristen biedt Gemini 3 kansen in due diligence, contractanalyse, interne onderzoeken en strategische voorbereiding. Tegelijk blijven hallucinaties en verificatieplicht belangrijke aandachtspunten, zeker onder de AI Act. Met goede governance en kwaliteitscontrole kan Gemini 3 uitgroeien tot een waardevolle juridische co-analist.

Meer lezen
AI‑hackers: wanneer een model bijna volledig autonoom aanvalt
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

AI‑hackers: wanneer een model bijna volledig autonoom aanvalt

Stel: een groot AI‑model infiltreert een bedrijfsnetwerk, legt de zwakheden bloot, installeert backdoors, exfiltreert data en rapporteert zichzelf — mét slechts een handvol menselijke keuzes. Klinkt als science fiction? Welnu: volgens Anthropic gebeurde het echt. Het model Claude Code werd – naar eigen zeggen – door Chinese hackers ingezet om zo’n dertig organisaties te aanvallen, waarbij het AI‑deel 80 tot 90 % van het werk voor zijn rekening nam.

Meer lezen
AI en de AVG: juridische uitdagingen bij profilering en besluitvorming
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

AI en de AVG: juridische uitdagingen bij profilering en besluitvorming

Het artikel bespreekt de inzet van complexe algoritmes en machine-learningtechnieken binnen organisaties, en hoe deze systemen binnen het kader van de AVG moeten worden beoordeeld. Aan de hand van supervised, unsupervised en deep learning lichten de auteurs toe hoe algoritmes zelfstandig patronen herkennen en voorspellingen doen, variërend van fraudedetectie tot sollicitatie-selectie. Omdat diep-neurale netwerken bestaan uit vele lagen van ‘neuronen’ die elk abstractere kenmerken herkennen, zijn de onderliggende verbanden moeilijk te verklaren. Juist wanneer dit soort modellen wordt gebruikt in processen waarmee personen worden beoordeeld—zoals kredietverlening, recruitment of risicoprofielen—ontstaat een spanning tussen technologische complexiteit en de noodzaak tot uitlegbaarheid en transparantie. Deze spanning vormt de kern van de privacyrechtelijke uitdagingen die volgen uit het gebruik van AI en geavanceerde algoritmes. Waar het herkennen van dieren onschuldig is, krijgt het gebruik van dergelijke systemen in bedrijfsprocessen een normatieve dimensie: de uitkomsten beïnvloeden kansen, rechten en risico’s van individuen en moeten daarom voldoen aan strikte bescherming onder de AVG.

Meer lezen
Hoe AI de werkelijke impact van EU-regelgeving op Nederlandse bedrijven zichtbaar maakt
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Hoe AI de werkelijke impact van EU-regelgeving op Nederlandse bedrijven zichtbaar maakt

AI maakte het mogelijk om bijna 5.000 AMvB’s en ministeriële regelingen te analyseren op de vraag of EU-richtlijnen lastenluw zijn geïmplementeerd, zoals Aanwijzing 9.5 voorschrijft. Uit het onderzoek bleek dat slechts acht regelingen één of meer niet-lastenluwe bepalingen bevatten, vaak gemotiveerd door nationale beleidsdoelen zoals klimaat, gezondheid of handhaafbaarheid. Regeldrukkosten worden echter nauwelijks uitgesplitst, waardoor onduidelijk blijft hoeveel extra lasten bedrijven dragen door striktere nationale keuzes. In zeven van de acht gevallen worden wel negatieve effecten op het ondernemingsklimaat genoemd, variërend van hogere kosten tot marktbeperkingen. Drie regelingen hebben bovendien een negatieve invloed op de internationale concurrentiepositie, bijvoorbeeld door hogere energieverplichtingen en meldplichten. Het onderzoek toont aan hoe AI en menselijke expertise samen zorgen voor een schaalbare, betrouwbare en transparante analyse van complexe regelgeving.

Meer lezen