Jouw taalmodel weet meer over jou dan je denkt
Over hoe AI jouw gedrag analyseert – en waarom dat juridische en ethische vragen oproept
We gebruiken ze bijna dagelijks: slimme AI-assistenten die onze e-mails herschrijven, juridische vragen beantwoorden of contractteksten samenvatten. Deze digitale gesprekspartners worden vaak gepresenteerd als veilig, anoniem en functioneel. Toch gebeurt er achter de schermen iets dat gebruikers zelden volledig overzien. Een AI-chatbot slaat namelijk niet alleen op wat je vraagt, maar ook hoe je dat doet. En juist die combinatie maakt het systeem verrassend scherpzinnig in het construeren van jouw digitale profiel.
Wie even stilstaat bij de manier waarop taalmodellen werken, begrijpt waarom. Een moderne AI-assistent is in staat om uit jouw woorden veel meer te halen dan de letterlijke betekenis. Jouw zinsopbouw, woordkeuze, interpunctie en zelfs de tijd tussen je zinnen vormen een soort digitale vingerafdruk. Wat begint als een praktische vraag aan een chatbot, ontwikkelt zich ongemerkt tot een stroom van subtiele signalen. Signalen die samen een profiel vormen waarin meer besloten ligt dan veel gebruikers vermoeden.
Het profiel dat AI over jou opbouwt
Iedere gebruiker van een AI-assistent laat sporen na. Deze sporen worden niet willekeurig opgeslagen, maar gestructureerd samengebracht in een zogenoemd gebruikersprofiel. Hierin staat bijvoorbeeld welke toon je prettig vindt in antwoorden, of je liever korte samenvattingen of diepgravende uitleg krijgt, of je waarde hecht aan juridische precisie of juist zoekt naar toegankelijkheid.
Maar het gaat verder dan voorkeuren. AI-modellen herkennen ook terugkerende thema’s in jouw vragen, zoals het feit dat je vaak werkt met compliancebeleid, integriteitskwesties of HR-vraagstukken. Ze koppelen dat aan de manier waarop je schrijft – formeel of informeel, stellig of aarzelend, puntsgewijs of verhalend. Zelfs het feit dat je bepaalde zinsconstructies gebruikt of bepaalde onderwerpen herhaaldelijk terug laat komen, wordt door het systeem geregistreerd.
Zo ontstaat een profiel dat niet alleen beschrijft wat je doet, maar ook wie je bent. Of in elk geval: hoe je je gedraagt in interactie met AI.
Onbewuste prijsgave van informatie
Veel mensen gaan ervan uit dat zolang ze geen namen of directe persoonsgegevens delen, het gebruik van AI ‘anoniem’ is. In werkelijkheid is die anonimiteit relatief. Zelfs zonder expliciete gegevens deelt een gebruiker veel impliciete informatie. Een enkele vraag zegt misschien weinig, maar een reeks van honderd vragen geeft een gedetailleerd beeld van jouw professionele omgeving, je werkwijze en zelfs je denkstijl.
Zodra je meerdere keren hebt aangegeven dat je werkt met vertrouwenspersonen, juridische beleidsteksten aanlevert of casussen uitwerkt rond integriteit, begint de AI een consistent profiel te vormen. Dat profiel bevat niet alleen feiten, maar ook gedragskenmerken zoals je mate van directheid, je gevoeligheid voor nuance of je neiging om in scenario’s te denken.
Het meest opvallende is misschien wel dat deze informatie ook beschikbaar blijft voor de AI zolang je het geheugen niet wist. Je digitale assistent ‘onthoudt’ dus wat jij allang bent vergeten.
Wat AI kan afleiden uit jouw taalgebruik
Taalmodellen zijn getraind op enorme hoeveelheden tekst. Daardoor hebben ze geleerd om subtiele patronen te herkennen. Aan de hand van jouw prompts kunnen ze bijvoorbeeld afleiden:
Of je veel ervaring hebt met juridische terminologie
Of je aarzelt of stellig bent in formuleringen
Of je eerder adviserend dan procederend werkt
Of je vanuit een leidinggevende of uitvoerende rol denkt
Zelfs het gebruik van leestekens of tussenkopjes geeft informatie over je communicatievoorkeur en structuurgevoel. De AI kan die patronen vervolgens relateren aan bredere gedragsprofielen. Zo ontstaat een soort gedragsanalyse op basis van taal – zonder dat daar expliciete vragen voor nodig zijn.
De rol van geheugen en context
Een AI-model als ChatGPT beschikt, bij gebruik met een ingelogd account, over een geheugenfunctie. Deze functie slaat contextuele informatie op om de interactie beter af te stemmen op de gebruiker. De bedoeling is positief: wie bijvoorbeeld meerdere keren heeft aangegeven geen informele toon te waarderen, krijgt standaard een zakelijk antwoord. Wie veel werkt met compliance, krijgt eerder voorbeelden uit dat vakgebied.
Toch roept dit geheugen ook vragen op. Want niet iedere gebruiker is zich ervan bewust dat deze informatie structureel wordt opgeslagen. In veel gevallen beseffen mensen pas hoe uitgebreid hun profiel is wanneer ze het expliciet opvragen via een instructie. Dan blijkt hoeveel er over hun gedrag, voorkeuren en werksituatie bekend is – en dat deze informatie niet tijdelijk, maar langdurig beschikbaar is binnen het systeem.
Zakelijk gebruik en gevoelige informatie
Bij professioneel gebruik van AI wordt vaak verondersteld dat de interactie ‘veilig’ is, zolang er geen namen of dossiers worden gedeeld. In de praktijk blijkt echter dat ook geanonimiseerde prompts gevoelige informatie kunnen bevatten. Wie bijvoorbeeld vraagt om hulp bij het herschrijven van een interne integriteitsregeling, of een samenvatting maakt van een meldprocedure binnen een bepaalde sector, deelt impliciet veel over de organisatiecontext.
Uit analyse van gebruikersdata blijkt dat een aanzienlijk deel van de zakelijke prompts zulke indirect gevoelige elementen bevat. Denk aan verwijzingen naar interne functies, processtructuren, specifieke dilemma’s of casuïstiek. In combinatie met eerder gedeelde informatie kan dit voldoende zijn om herleidbaarheid mogelijk te maken.
Voor juristen, HR-professionals en compliance officers is dat een risico dat niet onderschat mag worden.
De juridische en ethische dimensie
Het gebruik van AI-assistenten raakt aan verschillende juridische normen. De belangrijkste daarvan is de bescherming van persoonsgegevens. Zelfs als de gedeelde informatie geen naam of geboortedatum bevat, kan het alsnog onder de definitie van ‘persoonsgegevens’ vallen wanneer het herleidbaar is tot een natuurlijk persoon.
Daarnaast speelt de vraag wie verantwoordelijk is voor de verwerking van deze gegevens. In veel gevallen is dat de gebruiker zelf – maar zodra AI-systemen structureel worden ingezet binnen een organisatie, kan ook de werkgever verwerkingsverantwoordelijke worden. Dat roept verplichtingen op, zoals informatieplicht, beveiligingsmaatregelen en duidelijke afspraken over wat wel en niet gedeeld mag worden via AI.
Ook ethisch gezien zijn er vragen. Wat betekent het voor vertrouwen als een AI meer weet dan de gebruiker zich realiseert? Moet een systeem explicieter aangeven wat het opslaat? En in hoeverre mag een organisatie gebruik maken van die contextinformatie om het werk van medewerkers efficiënter te maken?
Praktische richtlijnen voor bewust AI-gebruik
Om verantwoord met AI om te gaan in een professionele context, zijn er enkele eenvoudige, maar effectieve richtlijnen:
Wees je bewust van wat je deelt.
Stel jezelf de vraag: zou ik dit ook in een e-mail aan een onbekende sturen? Zo niet, deel het dan niet met een AI.Gebruik gefingeerde voorbeelden, maar met mate.
Het vervangen van namen en data is nuttig, maar onvoldoende als je structureel gevoelige context deelt.Controleer en beheer je AI-geheugen.
Bekijk via de instellingen welke informatie over jou is opgeslagen en verwijder wat je niet wilt bewaren.Gebruik afgeschermde of lokale modellen voor gevoelige zaken.
Voor opdrachten die absolute vertrouwelijkheid vereisen, is het verstandig om te werken met systemen die offline draaien en geen gegevens opslaan.Maak intern beleid over AI-gebruik.
Zorg dat binnen je organisatie heldere afspraken zijn over wat wel en niet via AI gedeeld mag worden, en voor welke doeleinden AI gebruikt wordt.
Tot slot: AI is een spiegel
Het gebruik van een AI-chatbot lijkt vaak eenvoudig en onschuldig. Maar achter iedere interactie gaat een complex systeem schuil dat jouw gedrag analyseert, onthoudt en gebruikt om je beter van dienst te zijn. Die ‘persoonlijke’ afstemming is prettig – tot je beseft hoe gedetailleerd het profiel is dat daaronder ligt.
AI is geen neutrale zoekmachine. Het is een spiegel die jouw taal, je gewoonten en je gedrag terugkaatst. En dat maakt bewustzijn, zorgvuldigheid en transparantie onmisbaar. Niet om angstig te worden, maar om verantwoordelijkheid te nemen. Want wie AI professioneel inzet, draagt ook de plicht om zijn digitale voetafdruk te begrijpen.