Zijn makers van custom GPT’s "aanbieder" onder de AI-verordening

De Europese AI-verordening (AI Act) roept veel vragen op. Degenen die custom GPT’s maken kunnen in bepaalde gevallen onder de verordening vallen als "aanbieder" van een AI-systeem. Wanneer is dat het geval en wat betekent dat?

Een custom GPT is een gepersonaliseerde versie van OpenAI’s LLM die je kunt configureren met specifieke instructies, kennisbestanden en mogelijkheden om gespecialiseerde taken uit te voeren. In deze blog gebruiken we de term "GPT", hoewel concurrerende systemen zoals Claude of Copilot vergelijkbare functionaliteit bieden.

De AI-verordening definieert een 'aanbieder' als de entiteit die (a) een AI-systeem ontwikkelt of heeft ontwikkeld en (b) het verkoopt of in gebruik neemt onder eigen naam. De meeste mensen die custom GPT's maken, gebruiken een nieuwe naam, wat voldoende is om aan voorwaarde (b) te voldoen.

Voorwaarde (a) is lastiger, aangezien het slechts aanroepen van standaardfunctionaliteit in een bestaand AI-systeem ver af lijkt te staan van “ontwikkelen of hebben ontwikkeld” van een AI-systeem. Er is geen duidelijke definitie van “ontwikkelen” (of vervaardigen, zoals in de Blue Guide of GPSR), maar het voelt niet als de juiste omschrijving voor een aangepaste instructie.

Er is echter artikel 25 AIA, dat specifieke regels bevat voor gebruikers (d.w.z. degenen die ChatGPT en vergelijkbare systemen gebruiken) die AI-systemen aanpassen. Ongeacht of je “ontwikkelt of hebt ontwikkeld”, word je een aanbieder van een AI-systeem als je:

  • je merk plaatst op een bestaand hoog-risico AI-systeem

  • een bestaand hoog-risico AI-systeem wezenlijk aanpast

  • het beoogde doel wijzigt waardoor het een hoog-risico toepassing wordt

ChatGPT en soortgelijke systemen zijn niet hoog-risico, dus alleen de derde situatie kan van toepassing zijn. Als jouw custom GPT een hoog-risico toepassing uitvoert, dan word jij de aanbieder. En ja, dat geldt zelfs als je alleen de standaardfunctionaliteit gebruikt en geen diepgaande API-integraties.

  • Programmeerassistent met ChatGPT: GEEN HOOG RISICO – Hulp bij coderen en debuggen valt niet onder regulering van de AI-verordening.

  • Content Creator met Claude: GEEN HOOG RISICO – Marketingmateriaal, blogposts of socialmediacontent genereren valt niet onder de categorieën van Bijlage III (maar let wel op je informatieverplichtingen onder artikel 50).

  • Reisplanner met Perplexity: GEEN HOOG RISICO – Persoonlijke reisschema’s maken op basis van voorkeuren activeert geen verplichtingen uit Bijlage III.

  • Data Visualisatie Assistent met Copilot: GEEN HOOG RISICO – Hulp bij het maken van grafieken op basis van datasets is geen gereguleerde activiteit.

  • CV-beoordelaar met ChatGPT: HOOG RISICO – Valt onder werkgelegenheid/werving in Bijlage III (4.a).

  • Essaybeoordelaar met Google Gemini: HOOG RISICO – Beoordelen van leerprestaties valt onder onderwijs in Bijlage III (3.b).

  • Leningaanvraagbeoordelaar met Claude: HOOG RISICO – Kredietbeoordeling valt onder toegang tot essentiële diensten in Bijlage III (5.b).

Vorige
Vorige

Legal Prompt van de week: Analyseren en gebruiken van jouw schrijfstijl en smaak

Volgende
Volgende

Spanje introduceert boetes voor niet-gelabelde AI-content