Richtlijnen Europese Commissie over verboden praktijken onder AI Act

De Europese Commissie heeft richtlijnen gepubliceerd over verboden kunstmatige intelligentie (AI)-praktijken, zoals gedefinieerd in artikel 5 van de AI Act. Deze richtlijnen bieden een overzicht van AI-praktijken die als onaanvaardbaar worden beschouwd vanwege de potentiële risico’s voor Europese waarden en fundamentele rechten. Het gaat in totaal om 140 pagina’s.

De AI Act, die innovatie wil bevorderen terwijl hoge normen voor gezondheid, veiligheid en de bescherming van fundamentele rechten worden gewaarborgd, classificeert AI-systemen in verschillende risicocategorieën: verboden, hoog risico en systemen die aan transparantieverplichtingen moeten voldoen:

De richtlijnen behandelen specifiek praktijken zoals schadelijke manipulatie, sociale scoring en realtime biometrische identificatie op afstand, onder andere.

De richtlijnen zijn bedoeld om een consistente, effectieve en uniforme toepassing van de AI Act in de hele Europese Unie te waarborgen. Hoewel ze waardevolle inzichten bieden in de interpretatie van de verboden door de Commissie, zijn ze niet bindend. De definitieve interpretaties zijn voorbehouden aan het Hof van Justitie van de Europese Unie (HvJ-EU). De richtlijnen bevatten juridische toelichtingen en praktische voorbeelden om belanghebbenden te helpen de vereisten van de AI Act te begrijpen en na te leven.

Enkele aandachtspunten bij de richtlijnen

  • AI-beperkingen zijn een wettelijke vereiste. Het gebruik van een generatieve AI voor een verboden praktijk is het “probleem” als gebruiker (sectie 40). Leveranciers van generatieve AI (zoals OpenAI of Anthropic) hebben de "verantwoordelijkheid" om ervoor te zorgen dat hun systemen zich niet op verboden manieren gedragen.

  • Chatbots die mensen manipuleren, hun gedrag vervormen en schade toebrengen, zijn verboden. Dit omvat expliciet manipulatie die leidt tot zelfbeschadiging of suïcide. Gecombineerd met het vorige punt heeft dit gevolgen voor sociale companion-AI.

  • Predictive policing: Dit is voornamelijk beperkt tot wetshandhavingsinstanties en particuliere entiteiten met vergelijkbare taken (zoals KYC/anti-witwasverplichtingen). De richtlijnen laten in het midden of een supermarkt die potentiele winkeldieven wil opsporen hieronder valt.

  • Emotieherkenning op de werkvloer of in scholen. Emotieherkenning is alleen verboden als het biometrische gegevens gebruikt. Tekstsentimentanalyse is dus niet verboden.

  • Emotieherkenning bij sollicitanten is absoluut verboden.

  • Labelen van mensen met speciale categorieën. Dit verbod geldt alleen voor AI-systemen die labels toekennen op basis van ras, politieke opvattingen, vakbondslidmaatschap, religieuze of filosofische overtuigingen, seksleven of seksuele geaardheid. Handmatig labelen van deze data blijft toegestaan, bijvoorbeeld voor bias-mitigatie.

De richtlijnen zijn strikt genomen niet juridisch bindend. Het is dan ook niet mogelijk een boete te krijgen voor het overtreden van de verboden. Dit omdat handhaving van de AI Act pas mogelijk is vanaf 2 augustus 2025, wanneer de toezichthouders zijn ingesteld. Praktisch gezien kan je wel worden gedagvaard door getroffen partijen of via massaclaims. En als de AVG-toezichthouders wakker zouden worden, kunnen zij (in de meeste gevallen) het verbod gebruiken om gegevensverwerking onwettig te verklaren, een organisatie stil te leggen en te beboeten onder de AVG.

Lees meer over de AI Act op onze website:

Vorige
Vorige

Europese Commissie trekt de AI Liability Directive in

Volgende
Volgende

EU AI-bureau lanceert “levend archief” met voorbeelden van AI-geletterdheidspraktijken