European Criminal Bar Association reageert op AI Act richtlijnen
De European Criminal Bar Association (ECBA) heeft op uitnodiging van de Europese Commissie gereageerd op de richtlijnen van de Commissie betreffende de toepassing van de definitie van een AI-systeem en de verboden AI-praktijken zoals vastgesteld in de AI-Verordening (Verordening (EU) 2024/1689).
De reactie richt zich op verschillende aspecten die van invloed zijn op het strafrecht en de strafrechtelijke procedure.
Belangrijke punten die aan bod komen:
Definitie van AI-systemen in het strafrecht
Impact van AI op opsporingsmiddelen en wetshandhaving
Overwegingen bij biometrische identificatie met AI
Koppeling van AI met bestaande wetgeving over cybercriminaliteit
1. Definitie van een AI-systeem
De AI-Verordening definieert een AI-systeem als een machine-gebaseerd systeem met verschillende niveaus van autonomie en adaptiviteit. De ECBA benadrukt hierbij:
Juridische zekerheid: De definitie moet in lijn zijn met het legaliteitsbeginsel in het strafrecht.
Duidelijke onderscheidingen: AI-systemen moeten worden onderscheiden van traditionele software door hun zelflerende capaciteit, autonomie en de mogelijkheid om fysieke of virtuele omgevingen te beïnvloeden.
Flexibiliteit voor toekomstige technologieën: De definitie moet ruimte laten voor nieuwe AI-ontwikkelingen.
De ECBA waarschuwt dat de definitie van een AI-systeem overlapt met bestaande juridische definities van cybercrime-instrumenten zoals ‘computer system’ (Cybercrime Convention) en ‘information system’ (EU Richtlijn 2013/40/EU). Dit kan leiden tot juridische onzekerheid.
Daarnaast is het onduidelijk of onderzoeksmiddelen van wetshandhavers, zoals het AI-gestuurde opsporingsinstrument Sweetie 2.0, onder de AI-definitie vallen. De ECBA pleit daarom voor duidelijkere richtlijnen over autonomie en menselijke controle in AI-systemen.
2. Verboden AI-praktijken
De AI-Verordening verbiedt bepaalde AI-toepassingen, met name in manipulatie en biometrische identificatie.
a) Manipulatieve AI-technieken (Artikel 5.1(a))
De wet verbiedt AI-systemen die onderbewuste of misleidende technieken gebruiken om het gedrag van mensen te beïnvloeden. De ECBA wijst op het gebrek aan duidelijkheid over de toepassing op wetshandhaving.
De tekst richt zich op commerciële AI-systemen (bijv. beïnvloeding van consumenten).
Er is geen expliciete uitzondering voor opsporingsmethoden die gebruikmaken van misleidende technieken (zoals undercover AI-tools).
Er moeten richtlijnen komen voor de toepassing van AI in wetshandhaving, met naleving van fundamentele rechten.
b) Biometrische identificatie in openbare ruimtes (Artikel 5.1(h))
De ECBA wijst op de behoefte aan concrete voorbeelden van biometrische identificatie en verduidelijking van de volgende punten:
Welke vormen van biometrie vallen onder de wet? Denk aan gezichtsherkenning, stemanalyse, digitale gedragsherkenning en Metaverse-avataranalyse.
Wat wordt verstaan onder 'openbare ruimtes’? Is de Metaverse een publieke ruimte?
De uitzondering voor spoedeisende situaties is te ruim en moet beter gedefinieerd worden.
De relatie tussen de AI-Verordening en de Law Enforcement Directive (LED) 2016/680 moet expliciet worden gemaakt.
Conclusie
De ECBA onderstreept het belang van heldere definities en richtlijnen om fundamentele rechten in strafzaken te beschermen. Er is meer precisie nodig in de interpretatie van AI-systemen, manipulatieve AI-technieken en biometrische identificatie, vooral in de context van wetshandhaving en cybercrime. De organisatie roept op tot een zorgvuldige implementatie van de AI-Verordening, met expliciete waarborgen voor de rechtsstaat.