Confidential Inference: Zo blijft vertrouwelijke informatie écht veilig bij AI-gebruik

AI-tools zoals ChatGPT of Claude worden steeds vaker ingezet in de juridische praktijk. Juristen gebruiken ze voor het herschrijven van teksten, het analyseren van contracten of het brainstormen over standpunten. Maar met die opkomst komt ook een fundamentele zorg: hoe veilig is het eigenlijk om gevoelige informatie aan een AI toe te vertrouwen?

Het korte antwoord: op dit moment zijn die risico’s reëel. Veel AI-systemen verwerken informatie op een manier die technisch gezien tóch toegang kan geven aan de aanbieder of anderen. Maar er is een oplossing in opkomst die dat fundamenteel verandert: Confidential Inference. In deze blog lees je wat het is, hoe het werkt, en waarom het belangrijk is voor jou als jurist.

Wat is het probleem?

Stel: je voert een conceptmemo of een samenvatting van een juridisch geschil in bij een AI-systeem. Daarin staan cliëntnamen, gevoelige feiten en mogelijk zelfs vertrouwelijke e-mails. Wat gebeurt er vervolgens?

Het AI-systeem stuurt jouw tekst via internet naar een server van de aanbieder (bijvoorbeeld Anthropic of OpenAI). Daar wordt de tekst verwerkt, en komt er een antwoord terug. Op enig moment in dat proces wordt jouw tekst:

  • ontsleuteld (leesbaar gemaakt),

  • verwerkt door software waar je zelf geen zicht op hebt,

  • en mogelijk tijdelijk opgeslagen voor foutanalyse of training.

Dat betekent dat je als jurist de controle over vertrouwelijke gegevens (tijdelijk) kwijtraakt. En dat is problematisch. Niet alleen vanwege je geheimhoudingsplicht, maar ook vanwege de AVG en het risico op datalekken.

Wat is Confidential Inference?

Confidential Inference is een technologie die dit probleem fundamenteel probeert op te lossen. Het zorgt ervoor dat vertrouwelijke gegevens zelfs tijdens verwerking door een AI-model versleuteld blijven, behalve in één exact gecontroleerd moment – en dan alleen binnen een streng beveiligde omgeving.

Het idee is eenvoudig:

De gegevens die jij invoert, worden alleen leesbaar binnen een soort digitale kluis die hardwarematig is afgeschermd van de rest van het systeem.

Die digitale kluis heet een Trusted Execution Environment (TEE). Je kunt het zien als een gesloten kamer in een rechtbank die alleen opengaat voor de rechter op het moment van zitting. Niemand anders – geen griffier, geen systeembeheerder – kan meekijken of de kamer binnengaan.

Wat maakt het zo veilig?

Confidential Inference is bijzonder omdat het niet leunt op vertrouwen in mensen of beloftes van de aanbieder, maar op harde technologie. De beveiliging is:

  • hardwarematig (via chips die isolatie en versleuteling afdwingen),

  • cryptografisch aantoonbaar (je kunt achteraf bewijzen wat er is gebeurd),

  • en standaard gebaseerd op het principe van minimale toegang.

Het zorgt ervoor dat:

  • zelfs als iemand het besturingssysteem hackt, hij niet bij je gegevens komt;

  • de aanbieder van het AI-model geen toegang heeft tot jouw input of het model zelf;

  • de verwerking aantoonbaar alleen door goedgekeurde software is uitgevoerd.

Waarom is dit relevant voor juristen?

1. Geheimhoudingsplicht

Als advocaat, bedrijfsjurist of compliance officer heb je een wettelijke en tuchtrechtelijke plicht om vertrouwelijke gegevens geheim te houden. Als je data doorstuurt naar een AI-tool die niet transparant is over verwerking, loop je het risico deze plicht te schenden.

Confidential Inference maakt het technisch mogelijk om gegevens zo te verwerken dat niemand anders dan het AI-model toegang krijgt – zelfs de aanbieder van de tool niet. Dat betekent: je kunt AI gebruiken, zónder je geheimhoudingsplicht te schenden.

2. AVG-compliance

De Algemene Verordening Gegevensbescherming (AVG) stelt eisen aan de beveiliging van persoonsgegevens. Denk aan:

  • versleuteling (artikel 32 AVG),

  • minimale gegevensverwerking (artikel 5 AVG),

  • en adequate contractuele afspraken met verwerkers (artikel 28 AVG).

Confidential Inference ondersteunt dit: doordat gegevens nooit buiten een gesloten enclave zichtbaar zijn, wordt de kans op datalekken, misbruik of ongeoorloofde toegang aanzienlijk kleiner. Dit is technisch superieur aan gewone cloudbeveiliging.

3. Bewijspositie en audits

In het geval van een datalek, een klacht of een audit, wil je als organisatie kunnen aantonen:

  • welke software jouw gegevens heeft verwerkt,

  • wie daar toegang toe had (of juist niet),

  • en of dat AVG-proof was.

Confidential Inference maakt dit mogelijk via attestation-documenten: cryptografische bewijsstukken waarin staat dat de enclave correct is geconfigureerd en dat alléén de juiste software actief was.

Wie gebruikt dit al?

De technologie achter Confidential Inference is niet exclusief voor één AI-aanbieder. Sterker nog: het is een benadering die elk AI-bedrijf kan toepassen, zolang hun infrastructuur daarop is voorbereid.

✅ Claude (Anthropic)

Anthropic is op dit moment koploper. Zij hebben als eerste een volledige technische beschrijving gepubliceerd van hun Confidential Inference-architectuur. Ze gebruiken onder andere AWS Nitro Enclaves om gevoelige gegevens veilig te verwerken.

🧪 ChatGPT (OpenAI)

OpenAI heeft nog geen vergelijkbare publieke technologie gelanceerd, maar via Microsoft Azure worden wel infrastructuren aangeboden die Confidential Computing mogelijk maken. Het is waarschijnlijk dat dit op termijn geïntegreerd wordt in hun enterprise-aanbod.

🏗️ Google Gemini

Google beschikt over “Confidential Space” binnen Google Cloud, waarmee ook AI-inference veilig kan worden uitgevoerd. Er is nog geen directe koppeling met Gemini aangekondigd, maar de infrastructuur is er al wel.

🛠️ Andere aanbieders

Bedrijven als Meta (LLaMA), Cohere, Aleph Alpha en Mistral richten zich vaak op open-source modellen. Deze kunnen lokaal worden gedraaid, wat al meer controle geeft, maar voor echte Confidential Inference is ook daar gespecialiseerde hardware en software nodig.

Is dit al beschikbaar voor mij?

In veel gevallen nog niet. Confidential Inference wordt op dit moment:

  • vooral gebruikt in proefopstellingen en enterprise-implementaties,

  • en is niet standaard inbegrepen bij gratis of publieke versies van AI-tools.

Als je vandaag Claude of ChatGPT gebruikt via de reguliere interface, dan geldt:

  • je gegevens worden meestal tijdelijk ontsleuteld op de server,

  • je hebt geen zicht op of bewijs van waar, hoe en door wie de data is verwerkt,

  • en Confidential Inference is nog niet actief op die standaardroutes.

Maar: als je een bedrijfsklant bent of werkt via een gespecialiseerde aanbieder (zoals via Azure Confidential Computing), dan kun je mogelijk wel gebruik maken van deze techniek.

Wat kun je als jurist nu doen?

  1. Vraag er expliciet naar bij je AI-leverancier: wordt er gebruikgemaakt van Confidential Inference of Trusted Execution Environments?

  2. Gebruik AI voorlopig niet voor vertrouwelijke gegevens, tenzij je kunt aantonen dat het op deze veilige manier wordt verwerkt.

  3. Zorg voor duidelijke interne richtlijnen over AI-gebruik binnen jouw kantoor of organisatie.

  4. Overweeg verwerkersovereenkomsten aan te passen, zodat daarin wordt vastgelegd dat gegevens alleen in TEE’s mogen worden verwerkt.

  5. Blijf op de hoogte van ontwikkelingen, want deze technologie ontwikkelt zich snel.

Conclusie

Confidential Inference biedt een concrete oplossing voor een van de grootste dilemma’s rond AI in de juridische praktijk: hoe kun je profiteren van de kracht van AI, zonder je vertrouwelijkheid of compliance te riskeren?

Het antwoord: door gegevens alleen te verwerken binnen gecontroleerde, cryptografisch beveiligde omgevingen waar zelfs de AI-aanbieder geen toegang toe heeft. Daarmee kun je AI gaan gebruiken voor gevoelige informatie – mits je zeker weet dat dit veilig gebeurt.

Hoewel deze technologie nog niet overal standaard is, is het belangrijk om er nú al rekening mee te houden. Wie nu leert hoe Confidential Inference werkt, kan straks veiliger en met meer vertrouwen AI inzetten in zijn of haar juridische praktijk.

Volgende
Volgende

Atom-of-Thoughts: zo helpt deze prompttechniek jou