Mens of machine? De opmars van 'AI-slop'
Tijdens een analyse van het nieuwe AI-model DeepSeek R2 stuitten onderzoekers op een opvallende ontdekking: een nepwebsite die zich voordeed als de officiële DeepSeek-pagina. De site was overtuigend opgezet, vermoedelijk volledig gegenereerd door een AI-model. Voor juristen illustreert dit perfect een groeiend probleem in de digitale wereld: de opmars van 'AI-slop' – automatische, door AI gegenereerde inhoud die het internet ondoorzichtig maakt en de betrouwbaarheid van online informatie ondermijnt.
Wat speelt hier precies?
Steeds meer delen van het internet worden gevuld met AI-gegenereerde content: websites, artikelen, nep-reviews, social media-profielen. Deze ontwikkeling sluit aan bij de zogeheten Dead Internet Theory – het idee dat een aanzienlijk deel van de online interactie niet meer van menselijke oorsprong is, maar wordt aangestuurd door algoritmes en bots.
Zonder mee te gaan in complottheorieën is het juridische belang hiervan helder: hoe bepaal je nog of digitale uitingen authentiek zijn? En wat betekent dat voor de bewijswaardering in procedures, voor compliance-risico’s of voor de betrouwbaarheid van openbare bronnen?
Casus: AI als schijngetuige
Een confronterend voorbeeld: op het discussieplatform Reddit ontdekten moderatoren dat AI-bots stelselmatig reageerden in gevoelige threads, waaronder gesprekken over seksueel geweld. Deze bots, ontwikkeld in opdracht van de Universiteit van Zürich, deden zich voor als slachtoffers en hulpverleners – zonder te onthullen dat ze geen mens waren. De inzet van deze bots werd goedgekeurd door een ethische commissie, maar roept fundamentele juridische vragen op over:
identiteitsfraude;
schijnverklaringen;
en de manipulatie van online bewijs en perceptie.
Voor juristen is dit relevant bij online opsporing, bewijsrecht, toezicht op AI-gebruik en het beoordelen van moreel-maatschappelijke grenzen van onderzoeksethiek.
Vertrouwen als fundament
Deze gevallen ondermijnen het vertrouwen in digitale informatie, een fundament onder de rechtsstaat. Als juristen zijn we afhankelijk van de verifieerbaarheid van bronnen: of het nu gaat om getuigenverklaringen, gedragingen op sociale media, compliance-informatie of bewijsmateriaal bij cybercrime.
Waar een fysieke ontmoeting met een persoon doorgaans overtuigend is, is dat online niet het geval. Identiteiten zijn vervangbaar, beweringen zijn reproduceerbaar, en AI-gegenereerde uitingen worden steeds overtuigender. In reactie daarop trekken mensen zich terug in besloten digitale omgevingen (zoals end-to-end encrypted chats of private servers), wat juist het openbare debat en de transparantie verder bemoeilijkt.
Juridische relevantie en risico’s
De juridische impact van deze vervuiling is verstrekkend. Enkele voorbeelden:
Bewijswaardering: Is een online recensie, tweet of video afkomstig van een mens of van een AI? Kan het als bewijsmiddel dienen?
Identiteitsmisbruik: Wat als een AI zich voordoet als een advocaat, rechter of overheidsinstantie?
Databescherming en aansprakelijkheid: Wie is verantwoordelijk voor schade door AI-gegenereerde content?
Desinformatie en maatschappelijke onrust: Hoe voorkom je dat manipulatieve content juridische besluitvorming beïnvloedt?
Een voorzichtige oplossing: transparantie en detectie
Techbedrijf Anthropic (ontwikkelaar van AI-model Claude) publiceerde recent een rapport waarin ze toegeeft dat haar model werd gebruikt door commerciële botnetwerken. Deze voerden grootschalige beïnvloedingscampagnes uit door automatisch te reageren op berichten van echte gebruikers. Anthropic heeft deze accounts inmiddels verwijderd en werkt actief aan betere detectiemechanismen. Transparantie in risico’s en samenwerking met toezichthouders zijn hierbij essentieel.
Voor juristen toont dit vooral het belang aan van:
proactieve regulering;
forensische AI-detectie;
aansprakelijkheidsregimes voor AI-gedrag.
Conclusie: Echt en nep wordt een juridische kernvraag
Voor juristen, toezichthouders, rechters en compliance officers is dit niet slechts een technisch of ethisch vraagstuk. Het raakt aan de kern van ons werk: wat is waar, wie zegt wat, en op welke gronden vertrouwen we informatie?
In een tijd waarin AI vrijwel perfect menselijke communicatie kan simuleren, wordt het onderscheiden van echt en nep een van de grootste juridische uitdagingen van ons digitale tijdperk.