Autoriteit Persoonsgegevens waarschuwt voor datalekken door AI-chatbots

De Autoriteit Persoonsgegevens ziet een toename van het aantal datalekmeldingen dat samenhangt met het gebruik van AI-chatbots op de werkvloer. Het gaat daarbij om situaties waarin medewerkers gevoelige informatie invoeren in openbare chatbots, zoals ChatGPT, Claude en Gemini. De toezichthouder ontving in 2024 en 2025 tientallen meldingen van dit type datalekken.

Aanleiding voor de waarschuwing is onder meer een datalek bij de Gemeente Eindhoven. Het gemeentebestuur maakte op 18 december bekend dat bestanden met persoonsgegevens van inwoners en medewerkers waren terechtgekomen bij openbare AI-chatbots. Deze gegevens waren door medewerkers ingevoerd tijdens het gebruik van dergelijke toepassingen.

Steekproef bracht omvangrijk gebruik aan het licht

Het lek werd ontdekt na een steekproef over een periode van dertig dagen, van 23 september tot en met 23 oktober. In die periode bleken onder meer cv’s, documenten met betrekking tot jeugdzorg en interne verslagen naar openbare chatbots te zijn verstuurd. De gemeente kan niet vaststellen hoeveel bestanden in totaal zijn geüpload. Volgens het college hangt dit samen met het feit dat de betreffende chatdiensten ingevoerde gegevens slechts tijdelijk bewaren, doorgaans gedurende dertig dagen.

Om herhaling te voorkomen heeft de gemeente openbare AI-websites geblokkeerd. Medewerkers kunnen sindsdien alleen nog werken binnen een beveiligde omgeving. Daarnaast is aan OpenAI gevraagd om de betreffende bestanden te verwijderen.

Gebruik op eigen initiatief door medewerkers

Volgens de Autoriteit Persoonsgegevens ontstaan dit soort datalekken vaak doordat medewerkers op eigen initiatief AI-modellen gebruiken. Bij gratis varianten worden ingevoerde gegevens opgeslagen, terwijl voor gebruikers niet altijd duidelijk is wat aanbieders vervolgens met deze gegevens doen. Zo kunnen de gegevens worden gebruikt voor verdere ontwikkeling van de modellen, met het risico dat persoonlijke informatie indirect terugkomt in gegenereerde antwoorden.

Organisaties zijn verplicht om dergelijke incidenten als datalek te melden bij de Autoriteit Persoonsgegevens. Een eerste analyse van de meldingen laat zien dat het aantal meldingen in 2025 hoger ligt dan in 2024.

‘Shadow AI’ en beperkte controle

Binnen organisaties bestaat het risico dat medewerkers gebruikmaken van niet-toegestane AI-toepassingen, ook wel aangeduid als ‘shadow AI’. Daarvan is bijvoorbeeld sprake wanneer een organisatie beschikt over zakelijke AI-licenties, maar medewerkers daarnaast gebruikmaken van gratis, publieke varianten. In zulke gevallen ontbreken afspraken met aanbieders over gegevensverwerking en heeft de organisatie beperkt zicht op het daadwerkelijke gebruik.

Dit vergroot niet alleen het risico op datalekken van persoonsgegevens, maar ook op het ongecontroleerd delen van andere vertrouwelijke informatie, zoals gegevens die onder geheimhoudingsverplichtingen vallen of intern gevoelige documenten.

Maatregelen en bewustwording

Werkgevers kunnen verschillende maatregelen nemen om deze risico’s te beperken. Zo kunnen zij de toegang tot gratis AI-websites blokkeren en beveiligde alternatieven beschikbaar stellen. Ook adviseert de Autoriteit Persoonsgegevens om duidelijke afspraken te maken over welke gegevens medewerkers wel en niet mogen invoeren in AI-chatbots.

Daarnaast geldt dat organisaties sinds de invoering van de AI Act verplicht zijn om aandacht te besteden aan AI-geletterdheid, bijvoorbeeld door middel van training en instructie. Verwacht wordt dat het tijd kost voordat organisaties volledig vertrouwd zijn met het nieuwe juridische kader, vergelijkbaar met de invoering van de AVG in 2018.

In verschillende sectoren worden inmiddels eigen richtlijnen ontwikkeld voor verantwoord gebruik van AI. Deze richtlijnen zullen naar verwachting worden vertaald naar intern beleid binnen afzonderlijke organisaties.

Vorige
Vorige

Prompt van de Week: Gehakt maken van AI-output van cliënten

Volgende
Volgende

Hoe politieagenten omgaan met een real-time AI-geweldsdetectiesysteem