EU onderzoekt verplichte aansprakelijkheid voor AI-systemen: studie pleit voor strikte regels bij schade door AI

In juli 2025 publiceerde het Europees Parlement het rapport Artificial Intelligence and Civil Liability – A European Perspective, opgesteld in opdracht van de Commissie Juridische Zaken. Dit rapport, geschreven onder leiding van prof. dr. Andrea Bertolini, onderzoekt of het bestaande civielrechtelijke kader in de Europese Unie toereikend is om schade te vergoeden die ontstaat door het gebruik van kunstmatige intelligentie (AI). De conclusie van de onderzoekers is helder: het huidige systeem biedt onvoldoende rechtszekerheid voor gebruikers en te weinig bescherming voor slachtoffers. Om dat te verbeteren, bepleit de studie de invoering van een geharmoniseerd Europees regime van strikte aansprakelijkheid voor zogeheten high-risk AI-systemen.

De kern van het probleem: onzekerheid en fragmentatie binnen de EU

AI-systemen worden steeds vaker ingezet in toepassingen zoals medische beeldvorming, autonome voertuigen, risicobeoordeling door banken of algoritmisch toezicht in de publieke sector. De bestaande regels voor civiele aansprakelijkheid binnen de EU zijn echter niet afgestemd op de unieke kenmerken van AI, zoals autonomie, ondoorzichtigheid (black box-werking), en het vermogen tot zelflerend gedrag. Hierdoor is het vaak niet duidelijk wie aansprakelijk is als er schade ontstaat.

Daarnaast is er sprake van regulatoire fragmentatie: lidstaten hanteren uiteenlopende civiele aansprakelijkheidsregels. Sommige landen leunen op foutaansprakelijkheid (bijvoorbeeld nalatigheid of onzorgvuldig handelen), andere hanteren risicoaansprakelijkheid in specifieke sectoren. Door het ontbreken van duidelijke Europese richtlijnen ontstaat een situatie waarin slachtoffers in de ene lidstaat mogelijk wel worden gecompenseerd, en in een andere lidstaat niet. Voor bedrijven die AI-systemen ontwikkelen of inzetten leidt dit tot rechtsonzekerheid, hogere nalevingskosten en belemmeringen bij grensoverschrijdende dienstverlening.

De bestaande kaders schieten tekort

Hoewel de Europese Commissie de afgelopen jaren verschillende initiatieven heeft genomen — waaronder de AI Act, de herziene Productaansprakelijkheidsrichtlijn (PLDr) en de AI Liability Directive (AILD) — zijn deze instrumenten onvoldoende om slachtoffers effectief toegang tot schadevergoeding te bieden.

De AI Act richt zich op ex-ante risicobeheersing. Deze wet verplicht ontwikkelaars en gebruikers van high-risk AI-systemen tot technische en organisatorische maatregelen, maar bevat geen bepalingen over aansprakelijkheid bij schade. De herziene PLD is gericht op defecte producten, maar laat belangrijke schadevormen buiten beschouwing, zoals schade aan het AI-systeem zelf of schade door onvoldoende prestaties zonder gebrekkigheid. De voorgestelde AI Liability Directive bevat wel procedurele verbeteringen, zoals bewijsvermoedens, maar introduceert geen materiële aansprakelijkheidsregels.

Volgens de studie ontbreekt er dus een duidelijke juridische basis die rechters in staat stelt om effectief op te treden bij schade door AI. Dit leidt tot hoge proceskosten, langdurige procedures en het risico dat slachtoffers geen verhaal krijgen.

De voorgestelde oplossing: een uniforme, strikte aansprakelijkheidsregel

Om deze juridische leemte te dichten, pleit de studie voor een nieuw, aanvullend regelgevend kader op EU-niveau. Dit kader moet specifiek gericht zijn op high-risk AI-systemen, en moet uitgaan van strikte aansprakelijkheid zonder schuldvereiste.

De kern van het voorstel is dat één partij — de zogenaamde operator van het AI-systeem — aansprakelijk wordt gehouden voor schade die ontstaat tijdens het gebruik van dat systeem. Deze operator is degene die het AI-systeem in de markt zet of inzet in een professionele context, en die economisch voordeel heeft van het gebruik. Dit kan zowel een aanbieder (provider) als een gebruiker (deployer) zijn, afhankelijk van de situatie.

Belangrijk is dat er geen bewijs van schuld nodig is. Slachtoffers hoeven slechts aan te tonen dat schade is veroorzaakt door het AI-systeem. Hierdoor vervalt het vaak onmogelijke bewijsprobleem dat optreedt bij complexe AI-toepassingen. De aansprakelijke partij heeft vervolgens de mogelijkheid om zich te verzekeren of kosten door te rekenen in de prijs van zijn dienst of product.

Volgens de studie bevordert deze aanpak niet alleen de rechtszekerheid en voorspelbaarheid voor bedrijven, maar maakt zij ook een eerlijke verdeling van risico’s mogelijk in de AI-keten. Bovendien verlaagt dit model de proceslast voor slachtoffers en voorkomt het dat claims stranden bij gebrek aan technische kennis of bewijs.

Waarom een strikte regeling beter werkt dan de huidige voorstellen

In het rapport worden vier beleidsopties naast elkaar gezet. De eerste optie is het volledig intrekken van het AILD-voorstel, wat zou leiden tot verdere fragmentatie tussen lidstaten. De tweede optie is het behouden van het huidige richtlijnvoorstel, dat alleen procedurele regels bevat. Beide opties worden als problematisch en juridisch ontoereikend beoordeeld.

De derde optie is om het richtlijnvoorstel aan te passen tot een foutgebaseerde aansprakelijkheidsregel voor high-risk AI. Hoewel dit beter zou zijn dan niets, blijft dit model sterk afhankelijk van complexe interpretaties van begrippen als ‘schuld’ en ‘zorgplicht’, en van nationale invulling daarvan.

De enige werkelijk effectieve optie volgens de studie is de vierde: het instellen van een EU-brede strikte aansprakelijkheidsregel voor high-risk AI, met een heldere afbakening van wie verantwoordelijk is en zonder afhankelijkheid van het nationale aansprakelijkheidsrecht. Dit model combineert rechtsgelijkheid, efficiëntie en juridische eenvoud, en sluit aan bij bestaande definities uit de AI Act.

Implicaties voor de juridische praktijk

De invoering van zo’n regeling heeft directe gevolgen voor juristen. Contracten moeten worden aangepast om de rol van de operator juridisch te borgen. Verzekeraars zullen nieuwe producten moeten ontwikkelen die dekking bieden voor AI-risico’s. Ondernemingen zullen risicoanalyses moeten opstellen en intern juridische verantwoording moeten organiseren over het gebruik van AI-systemen.

Ook op het gebied van procesvoering is de impact aanzienlijk. Bij de invoering van risicoaansprakelijkheid zullen slachtoffers sneller geneigd zijn om schadeclaims in te dienen, omdat de juridische drempels lager liggen. Juristen die actief zijn in aansprakelijkheidsrecht, gezondheidszorg, transport, financiën of AI-compliance, doen er goed aan zich in deze ontwikkeling te verdiepen.

Slot: juridische harmonisatie is noodzakelijk voor AI-verantwoordelijkheid

De EU staat op een kantelpunt. Als zij doorgaat op het huidige spoor — zonder duidelijke aansprakelijkheidsregels — dreigt een lappendeken van nationale oplossingen die innovatie afremmen en slachtoffers onvoldoende bescherming bieden. De studie van juli 2025 maakt duidelijk dat dit kan worden voorkomen met een duidelijke, uniforme regeling op basis van strikte aansprakelijkheid.

Een dergelijk regime is juridisch uitvoerbaar, economisch rationeel en maatschappelijk wenselijk. Door nu de juiste keuzes te maken, kan de EU zich wereldwijd profileren als koploper op het gebied van betrouwbare en verantwoorde inzet van AI.

Vorige
Vorige

Welke juridische banen meest bedreigd door AI: Microsoft publiceert lijst

Volgende
Volgende

Zelfrijdende bus in Rotterdam: een mijlpaal die om regie vraagt