AI-zwermen en de illusie van publieke consensus
Stel je voor: je volgt een online debat over een gevoelig maatschappelijk thema. De reacties lijken eensgezind, de likes stapelen zich op, en overal zie je dezelfde overtuiging terugkomen. Het voelt als een breed gedragen maatschappelijke stroming. Maar wat als die ogenschijnlijke meerderheid geen gemeenschap is, maar één actor – vermomd als duizenden stemmen?
Volgens een recent wetenschappelijk rapport staan we precies voor dat scenario.
Een internationaal team van 22 onderzoekers, verbonden aan instellingen als Oxford, Cambridge, Berkeley en NYU, waarschuwt in het toonaangevende tijdschrift Science voor de opkomst van zogeheten AI-zwermen: grootschalige, gecoördineerde netwerken van AI-gestuurde accounts die zich gedragen als echte mensen en gezamenlijk de publieke opinie kunnen sturen.
Het rapport krijgt veel aandacht, mede omdat een van de auteurs Gary Marcus is – een invloedrijke AI-wetenschapper en uitgesproken criticus van ongeremde AI-ontwikkeling. Maar de zorg die hij en zijn collega’s uiten reikt verder dan technologie alleen. Het raakt aan de fundamenten van democratie, rechtsstaat en publieke besluitvorming.
Van botnet naar gemeenschap
Traditionele botnetwerken waren relatief eenvoudig te herkennen. Ze postten identieke berichten, opereerden kortstondig en vielen vooral op door hun mechanische gedrag. Die tijd ligt achter ons.
AI-zwermen functioneren fundamenteel anders. Het gaat om netwerken van autonome AI-accounts die langdurig actief zijn, onderling gecoördineerd handelen en zich aanpassen aan hun omgeving. Ze nemen lokale spreektaal over, reageren contextueel op actuele gebeurtenissen en bouwen reputatie op door maandenlang “normaal” te participeren in online discussies.
Belangrijker nog: er hoeft geen mens meer continu mee te kijken. Een eenmaal ingestelde zwerm kan zichzelf onderhouden, optimaliseren en uitbreiden.
Dat dit geen theoretisch risico is, blijkt uit concrete voorbeelden. In de zomer van 2024 ontmantelde het Amerikaanse ministerie van Justitie een netwerk van bijna duizend accounts op X (voorheen Twitter) die zich voordeden als Amerikaanse burgers, maar in werkelijkheid centraal werden aangestuurd vanuit Rusland door gebruik van AI-technologie.
Daarnaast laat recent onderzoek zien dat bij grote nieuwsgebeurtenissen inmiddels tot twintig procent van de actieve accounts geautomatiseerd is. Dat betekent dat een aanzienlijk deel van het online debat niet langer wordt gevoerd door mensen, maar door systemen.
De democratische kwetsbaarheid
Waarom is dit zo problematisch?
Democratische meningsvorming is gebaseerd op sociale signalen. Mensen spiegelen hun opvattingen aan die van anderen: wat vinden mijn collega’s, mijn netwerk, “de samenleving”? Die mechanismen werken alleen als de stemmen die we waarnemen onafhankelijk zijn.
AI-zwermen ondermijnen dat uitgangspunt. Wanneer één partij via duizenden synthetische accounts hetzelfde narratief kan verspreiden, ontstaat een kunstmatige consensus. Niet omdat een idee overtuigend is, maar omdat het overal tegelijk wordt herhaald.
De onderzoekers spreken in dat verband over het instorten van de wisdom of crowds. Collectieve wijsheid functioneert alleen zolang de menigte niet wordt gemanipuleerd. Zodra één actor door honderden of duizenden digitale maskers kan spreken, verandert publieke opinie in een strategisch product.
Voor juristen is dit geen abstract vraagstuk. Denk aan verkiezingen, beleidsconsultaties, publieke opinies over wetgeving of rechtszaken met grote maatschappelijke impact. De grens tussen maatschappelijke dynamiek en doelbewuste beïnvloeding vervaagt.
Van symptoombestrijding naar systeemaanpak
Wat stellen de onderzoekers voor?
Hun kernboodschap is opvallend nuchter: stop met achteraf opruimen en begin met structureel voorkomen. In plaats van het steeds weer verwijderen van individuele nepaccounts – een digitale versie van “whack-a-mole” – moeten platforms en overheden zich richten op netwerkgedrag.
Concreet doen zij vijf aanbevelingen:
Continue monitoring van patronen
Niet wachten tot een campagne viraal gaat, maar structureel analyseren hoe accounts zich in samenhang gedragen.Verdedigingsstrategieën vooraf testen
Bouw gesimuleerde sociale omgevingen waarin zwermen worden nagebootst, om te toetsen welke maatregelen daadwerkelijk werken.Mens-zijn aantoonbaar maken zonder identiteit prijs te geven
Denk aan privacyvriendelijke mechanismen waarmee een gebruiker kan bewijzen een mens te zijn, zonder persoonsgegevens te delen.Toegang tot data voor onafhankelijk onderzoek
Zonder inzicht in platformdata is detectie onmogelijk. De onderzoekers pleiten voor een expliciet recht op wetenschappelijk onderzoek.Een onafhankelijke waakhond
Geen centrale autoriteit die waarheid bepaalt, maar een netwerk van academici en maatschappelijke organisaties dat signaleert wanneer “publiek debat” feitelijk gecoördineerde manipulatie is.
De echte uitdaging: de economie van manipulatie
De kern van het probleem zit volgens de auteurs niet in AI zelf, maar in de kostenstructuur. Het is op dit moment simpelweg te goedkoop om grootschalige beïnvloedingscampagnes op te zetten.
Zolang één actor met beperkte middelen duizenden digitale stemmen kan creëren, blijft misbruik aantrekkelijk. De oplossing ligt daarom in het omdraaien van die prikkel: manipulatie moet duur, riskant en instabiel worden. Wordt één onderdeel van een zwerm ontmaskerd, dan moet het hele netwerk instorten.
Of, zoals de onderzoekers het kernachtig samenvatten: het gaat er niet om wie bepaalt wat waar is, maar om het opnieuw zichtbaar maken van echte menselijke stemmen te midden van synthetisch lawaai.
Waarom dit juristen aangaat
Voor juristen raakt dit onderwerp aan meerdere kerngebieden: verkiezingsrecht, platformregulering, gegevensbescherming, vrijheid van meningsuiting en – niet in de laatste plaats – de legitimiteit van democratische besluitvorming.
AI-zwermen maken pijnlijk duidelijk dat technologische vooruitgang niet waardevrij is. De vraag is niet of dit soort systemen worden ingezet, maar hoe rechtsstaten reageren wanneer publieke opinie zelf een manipuleerbaar object wordt.
Voor The Innovative Lawyer is dit precies het snijvlak waar technologie, recht en publieke waarden elkaar ontmoeten. Niet morgen, maar nu.