
Actualiteiten

Kerala High Court publiceert eerste AI-beleid voor rechters in India
Op 19 juli 2025 heeft de Hoge Raad van Kerala als eerste rechtbank in India formeel beleidsregels vastgesteld over het gebruik van AI in de rechtspraak. Rechters mogen AI niet inzetten voor het nemen van beslissingen, het opstellen van uitspraken of het bepalen van juridische conclusies. Alleen vooraf goedgekeurde tools mogen worden gebruikt voor administratieve taken, zoals vertaling of agendabeheer, en uitsluitend onder menselijke controle. Cloudgebaseerde AI-diensten zijn verboden vanwege privacy- en vertrouwelijkheidsrisico’s. Elke toepassing van AI moet worden geregistreerd in een audit trail. Indien AI-fouten optreden, moet dat direct worden gemeld en onderzocht. Voor rechters, personeel en stagiairs geldt een verplichte training over ethisch en veilig AI-gebruik. De richtlijn vormt een normstellend voorbeeld voor andere rechtbanken wereldwijd.

EU onderzoekt verplichte aansprakelijkheid voor AI-systemen: studie pleit voor strikte regels bij schade door AI
In juli 2025 publiceerde het Europees Parlement het rapport Artificial Intelligence and Civil Liability – A European Perspective, opgesteld in opdracht van de Commissie Juridische Zaken. Dit rapport, geschreven onder leiding van prof. dr. Andrea Bertolini, onderzoekt of het bestaande civielrechtelijke kader in de Europese Unie toereikend is om schade te vergoeden die ontstaat door het gebruik van kunstmatige intelligentie (AI). De conclusie van de onderzoekers is helder: het huidige systeem biedt onvoldoende rechtszekerheid voor gebruikers en te weinig bescherming voor slachtoffers. Om dat te verbeteren, bepleit de studie de invoering van een geharmoniseerd Europees regime van strikte aansprakelijkheid voor zogeheten high-risk AI-systemen.

EU verplicht AI-bedrijven tot openheid over trainingsdata
Op 24 juli 2025 publiceerde de Europese Commissie een verplicht template waarmee aanbieders van general-purpose AI-modellen moeten aangeven welke trainingsdata zij hebben gebruikt. Deze maatregel, gebaseerd op artikel 53(1)(d) van de AI Act, geldt voor alle aanbieders op de EU-markt, inclusief open-source modellen. Het doel is meer transparantie, zodat rechthebbenden hun rechten kunnen uitoefenen. De samenvatting moet algemene informatie bevatten over databronnen, domeinnamen, verwerkingsmaatregelen en herkomst van de data. Bedrijfsgevoelige informatie wordt beschermd, maar relevante rechten krijgen voorrang. De AI Office handhaaft deze verplichting vanaf augustus 2026. Niet-naleving kan leiden tot boetes tot 15 miljoen euro of 3% van de wereldwijde omzet. Deze verplichting kan ook internationaal juridische gevolgen hebben.

Van datacenters tot ‘neutrale’ AI: dit staat er in hetAI Action Plan van Trump
Het AI Action Plan van president Trump, gepubliceerd op 23 juli 2025, bevat ruim 90 maatregelen verdeeld over drie pijlers: innovatie, infrastructuur en internationale veiligheid. De VS kiest voor versnelling van AI-ontwikkeling, met nadruk op deregulering en economische groei. Milieuwetgeving wordt versoepeld voor datacenterbouw op federale gronden. Staten met strikte AI-regels kunnen federale steun mislopen. Exportcontrole op AI-chips wordt aangescherpt, inclusief locatieverificatie en toepassing van de FDPR. Alleen ‘ideologisch neutrale’ AI komt in aanmerking voor federale inkoop. Open-source AI wordt actief ondersteund als geopolitiek instrument. Voor juristen betekent dit fundamentele verschuivingen in technologie-, contract- en veiligheidsrecht.

Guidelines doorgifte derde landen definitief en nieuw trainingsmateriaal AI & AVG
Nieuwe guidelines van de European Data Protection Board (EDPB) over doorgifte naar derde landen zijn definitief. Daarnaast heeft de EDPB trainingsmateriaal gepubliceerd om vaardigheden op het gebied van AI & gegevensbescherming te vergroten onder professionals. Op de laatste plenaire vergadering besprak de EDPB ook het aanpassen van de verplichtingen rondom verwerkingsregisters.

AI Act Fase 2: Nieuwe regels voor General Purpose AI (GPAI)
Sinds 1 augustus 2024 is de Europese AI-verordening (AI Act) van kracht, met een gefaseerde invoering. Deze verordening is een belangrijk juridisch instrument dat beoogt het gebruik van kunstmatige intelligentie binnen de Europese Unie te reguleren op basis van een risicogebaseerde benadering. Gezien de complexiteit van de wet en de impact ervan op zowel ontwikkelaars als gebruikers van AI-systemen, is gekozen voor een gefaseerde implementatie. Waar fase 1 zich richtte op het verbod op AI-systemen met een onaanvaardbaar risico, staat in fase 2 General Purpose AI (GPAI) centraal. Deze blog belicht de tweede implementatiefase van de AI Act. We bespreken wat GPAI inhoudt, welke verplichtingen daaruit voortvloeien voor aanbieders, en wat de aanstaande deadline van 1 mei 2025 voor gedragscodes betekent voor de praktijk.

Spanje introduceert boetes voor niet-gelabelde AI-content
In een poging om de verspreiding van misleidende informatie en zogenaamde 'deepfakes' tegen te gaan, heeft de Spaanse regering op 11 maart 2025 een wetsvoorstel goedgekeurd dat bedrijven verplicht om AI-gegenereerde content duidelijk te labelen. Het niet naleven van deze verplichting kan leiden tot boetes die oplopen tot €35 miljoen of 7% van de wereldwijde jaaromzet van het bedrijf, afhankelijk van welk bedrag hoger is.

Explosieve toename van AI-wetsvoorstellen in de VS
De Verenigde Staten zien een ongekende stijging in het aantal wetsvoorstellen met betrekking tot kunstmatige intelligentie (AI). In de eerste maanden van 2025 zijn al 893 AI-gerelateerde wetsvoorstellen ingediend in 48 staten, een aanzienlijke toename vergeleken met de 734 voorstellen gedurende heel 2024.

Definitie AI-systeem: wat is een AI-systeem onder de AI-verordening?
De definitie van het begrip AI-systeem is cruciaal voor de toepasbaarheid van de AI-verordening. Of een proces of een toepassing, zoals een algoritme, wel of niet kwalificeert als AI-systeem, bepaalt of die processen of toepassingen onder de AI-verordening vallen. De definitie in de AI-verordening sluit aan bij het werk van met name de OECD.

VK stelt AI-wetgeving uit: focus verschuift naar samenwerking met VS
Het Verenigd Koninkrijk stelt zijn langverwachte AI-wetgeving uit, terwijl het zich probeert af te stemmen op het AI-beleid van de nieuwe Amerikaanse regering onder Donald Trump. Waar eerder nog een AI-wet voor eind 2024 werd verwacht, zal deze nu op z’n vroegst pas in de zomer van 2025 in het parlement verschijnen. Deze koerswijziging weerspiegelt een bredere geopolitieke trend: in plaats van strengere AI-regulering te ontwikkelen, zoals de EU doet, lijkt het VK zich te positioneren als een aantrekkelijke vestigingsplaats voor AI-bedrijven.

Europese Commissie trekt de AI Liability Directive in
Op 11 februari kondigde de Europese Commissie (EC) aan dat de voorgestelde AI-aansprakelijkheidsrichtlijn (AI Liability Directive, AILD) niet wordt doorgevoerd. Dit besluit staat vermeld in het werkprogramma voor 2025 en past binnen de bredere strategie van de EC om regelgeving te vereenvoudigen onder het motto: "Samen vooruit: een brutalere, eenvoudigere, snellere Unie." Toch betekent het schrappen van de AILD dat er een belangrijke lacune blijft in de regelgeving rondom schadevergoeding bij het gebruik van AI-systemen. In dit artikel gaan we in op wat de AILD inhield, waarom deze is ingetrokken, wat de gevolgen zijn en welke stappen mogelijk nog worden genomen.

EU AI-bureau lanceert “levend archief” met voorbeelden van AI-geletterdheidspraktijken
Artikel 4 van de AI-verordening vereist dat aanbieders en gebruikers van AI-systemen zorgen voor een voldoende niveau van AI-geletterdheid bij hun personeel en iedereen die de systemen namens hen gebruikt. Het EU AI Office heeft enkele bestaande praktijken verzameld met als doel een “levend archief” te creëren dat voorbeelden biedt van bestaande AI-geletterdheidspraktijken.

European Criminal Bar Association reageert op AI Act richtlijnen
De European Criminal Bar Association (ECBA) heeft op uitnodiging van de Europese Commissie gereageerd op de richtlijnen van de Commissie betreffende de toepassing van de definitie van een AI-systeem en de verboden AI-praktijken zoals vastgesteld in de AI-Verordening (Verordening (EU) 2024/1689).

Europese Commissie publiceert richtlijnen voor definitie van AI Systeem
De Europese Commissie heeft richtlijnen gepubliceerd voor de definitie van AI-systeem uit de AI Act (AIA). De AIA is niet altijd duidelijk. Door richtsnoeren uit te geven over de definitie van AI-systemen, wil de Commissie aanbieders en andere relevante partijen helpen bij het bepalen of een softwaresysteem als een AI-systeem kan worden beschouwd, om zo een effectieve toepassing van de regels te vergemakkelijken.

AI-geletterdheid: AP geeft richting
Een van de verplichtingen onder de AI Act is dat werknemers moeten worden opgeleid over wat AI voor hen betekent. Maar wat houdt dat precies in? De wet zelf geeft hier geen gedetailleerde invulling aan, alleen dat het afhankelijk is van de context. Gelukkig biedt de AP nu iets meer duiding, aansluitend op de considerans van de AI Act.

Eerste bepalingen uit AI Act zijn van kracht: wat betekent dit?
Op 2 februari 2025 zijn de eerste bepalingen van de EU AI Act in werking getreden. Dit markeert een belangrijke stap in de regulering van kunstmatige intelligentie binnen Europa. Twee essentiële aspecten springen eruit: AI geletterdheid (AI literacy) en het verbod op bepaalde AI-toepassingen. Voor organisaties betekent dit dat ze direct actie moeten ondernemen om te voldoen aan de nieuwe regelgeving. In onze blog bespreken we de gevolgen van deze bepalingen en waarom ze van belang zijn.

Wie is er aansprakelijk bij zelfrijdende auto’s?
In het najaar van 2024 kondigde Tesla aan dat we in de nabije toekomst een Tesla ‘Robotaxi’ zullen hebben zonder stuur en zonder pedalen. Waar we op dit moment nog slechts (deels) zelfrijdende auto’s kennen die onder menselijk toezicht staan, zullen er – als de aankondiging van Tesla uitkomt – in de nabije toekomst zelfrijdende auto’s zijn die niet langer onder menselijk toezicht staan. Wat betekent dit voor de aansprakelijkheid voor motorvoertuigen?

AI-geletterdheid: juridische verplichting én praktische uitdaging
Volgens de AI Act moeten organisaties die AI ontwikkelen of gebruiken hun medewerkers voldoende ‘AI-geletterd’ maken. Maar wat betekent dat precies? Het komt erop neer dat iedereen die verantwoordelijk is voor of werkt met AI-systemen over de kennis en vaardigheden beschikt om AI bewust en verantwoord in te zetten. Dit houdt in dat men zich niet alleen bewust is van de voordelen en kansen, maar ook van de risico’s en mogelijke schade die AI kan veroorzaken.

AP doet oproep tot input op manipulatieve, misleidende en uitbuitende AI-systemen
Als coördinerend toezichthouder op algoritmes en AI is de AP van start gegaan met de voorbereiding van toezicht op verboden AI-toepassingen. Deze verboden zijn al per 2 februari 2025 van toepassing. Bedrijfsleven, overheden, belangengroeperingen en het brede publiek worden opgeroepen input te geven op verschillende verboden uit de AI-verordening. Met de opbrengst kan gewerkt worden aan de verdere uitleg van de verboden AI-systemen.

Het Europees Bureau voor artificiële intelligentie (AI-bureau)
Op 29 mei 2024 maakte de Europese Commissie bekend dat zij een AI-bureau heeft opgericht. Het AI-bureau heeft tot doel de toekomstige ontwikkeling, de uitrol en het gebruik van artificiële intelligentie (AI) mogelijk te maken op een manier die maatschappelijke en economische voordelen en innovatie bevordert en tegelijkertijd de risico’s van AI beperkt. Het AI-bureau zal een sleutelrol spelen bij de uitvoering van de AI-verordening en het positioneren van de EU als leider in internationale besprekingen.