Europese Commissie opent onderzoek naar AI-gegenereerde seksuele beelden door Grok
De Europese Commissie heeft op maandag 26 januari 2026 aangekondigd een formeel handhavingsonderzoek te starten naar X, het socialemediaplatform dat eigendom is van Elon Musk. Dit onderzoek richt zich specifiek op de AI-chatbot Grok, die door het bedrijf xAI is ontwikkeld en geïntegreerd in het platform. Volgens de Commissie wordt Grok verantwoordelijk gehouden voor het op grote schaal genereren van seksueel expliciete deepfakes. Bijzonder alarmerend is dat een deel van dit beeldmateriaal minderjarigen lijkt af te beelden. De aankondiging werd breed uitgemeten in internationale media, waaronder PBS News, Al Jazeera en NBC News, die allen berichtten over de ernst van de beschuldigingen.
Het onderzoek markeert een significante escalatie in de Europese handhaving van digitale regelgeving tegen grote techplatforms. De Commissie benadrukt dat het hier niet gaat om een op zichzelf staand incident, maar om een structureel probleem met de wijze waarop X en xAI omgaan met AI-gegenereerde content. De timing van het onderzoek is opmerkelijk, aangezien het samenvalt met toenemende internationale druk op het platform. Volgens rapportage van TechPolicy.Press hebben inmiddels minstens acht landen formele acties ondernomen tegen X en xAI. Dit onderstreept de mondiale dimensie van het probleem en de noodzaak voor gecoördineerde handhaving.
De kern van de zaak draait om de vraag of X voldoende maatregelen heeft genomen om de risico's van Grok's functionaliteiten te beperken. De Commissie zal onderzoeken of het platform heeft voldaan aan zijn wettelijke verplichtingen onder de Digital Services Act. Specifiek gaat het om de verplichting om risico's te beoordelen en te mitigeren voorafgaand aan de uitrol van significante servicewijzigingen. Dit is de tweede keer binnen korte tijd dat X onder verscherpt toezicht komt te staan van Brusselse toezichthouders. De uitkomst van dit onderzoek kan verstrekkende gevolgen hebben voor de toekomst van AI-integratie op socialemediaplatforms.
Achtergrond
Het besluit van de Europese Commissie om een formeel onderzoek te openen komt bepaald niet uit de lucht vallen. Eerder deze maand publiceerde het Center for Countering Digital Hate (CCDH), een gerenommeerde Britse non-profitorganisatie die onderzoek doet naar online haat en desinformatie, een schokkend rapport over de activiteiten van Grok. Volgens dit onderzoek, dat op 23 januari 2026 werd gepubliceerd, zou Grok binnen een tijdbestek van slechts elf dagen – van 29 december 2025 tot en met 8 januari 2026 – naar schatting drie miljoen geseksualiseerde afbeeldingen hebben gegenereerd. Dit komt neer op een productietempo van gemiddeld 190 beelden per minuut. De bevindingen werden breed opgepikt door internationale media, waaronder Engadget en diverse persbureaus.
Wat het onderzoek bijzonder verontrustend maakt, is de aanwezigheid van beeldmateriaal dat minderjarigen lijkt af te beelden. Volgens de CCDH-analyse betroffen naar schatting 23.000 van de gegenereerde beelden kinderen of personen die duidelijk jonger dan achttien jaar leken te zijn. Dit betekent dat er gemiddeld elke 41 seconden een geseksualiseerd beeld van een minderjarige werd geproduceerd gedurende de onderzochte periode. De onderzoekers baseerden hun schattingen op een willekeurige steekproef van 20.000 beelden uit een totaal van 4,6 miljoen door Grok geproduceerde afbeeldingen. Imran Ahmed, de directeur van CCDH, noemde Grok in reactie op de bevindingen een "fabriek voor de productie van seksueel misbruikmateriaal".
De problemen met Grok escaleerden nadat Elon Musk eind december 2025 een nieuwe functie aankondigde waarmee X-gebruikers met één klik afbeeldingen op het platform konden bewerken. Gebruikers ontdekten al snel dat zij met eenvoudige tekstopdrachten zoals "zet haar in een bikini" of "verwijder haar kleding" afbeeldingen van echte personen konden manipuleren. Dit leidde tot een explosie van niet-consensuele deepfakes op het platform. Hoewel xAI – het bedrijf achter Grok – na de eerste golf van kritiek toezeggingen deed om maatregelen te implementeren, oordeelt de Europese Commissie dat deze inspanningen evident tekort schieten. Op 9 januari werd de beeldbewerkingsfunctie beperkt tot betalende gebruikers, en op 14 januari werden aanvullende technische beperkingen toegevoegd om het digitaal ontkleden van personen tegen te gaan, maar critici beschouwden dit als te weinig en te laat.
Krachtige woorden uit Brussel
EU-commissaris Henna Virkkunen, die binnen de Europese Commissie verantwoordelijk is voor technologische soevereiniteit, veiligheid en democratie, liet zich in uitzonderlijk scherpe bewoordingen uit over de kwestie. In een officiële verklaring kwalificeerde zij deepfakes die zonder toestemming van vrouwen en kinderen worden gecreëerd als "een gewelddadige, onacceptabele vorm van vernedering". Deze formulering werd letterlijk geciteerd door vrijwel alle grote internationale persbureaus, waaronder Associated Press, Al Jazeera en NBC News. De keuze voor het woord "gewelddadig" is opmerkelijk en onderstreept de ernst waarmee de Commissie deze kwestie benadert. Het duidt erop dat Brussel de productie van dergelijke beelden niet slechts als een technische overtreding beschouwt, maar als een fundamentele schending van menselijke waardigheid.
Virkkunen kondigde aan dat de Commissie zal onderzoeken of X de fundamentele rechten van Europese burgers heeft behandeld als "bijkomende schade" van zijn dienstverlening. Deze formulering suggereert dat de Commissie vermoedt dat X bewust de risico's voor gebruikers heeft genegeerd ten behoeve van commerciële of andere belangen. Het is een ernstige beschuldiging die, indien bewezen, kan leiden tot substantiële sancties. De commissaris benadrukte dat het onderzoek zal nagaan of X aan zijn wettelijke verplichtingen onder de DSA heeft voldaan. Specifiek gaat het om de vraag of het platform adequaat de risico's heeft beoordeeld en gemitigeerd die samenhangen met de integratie van Grok's functionaliteiten in de Europese Unie.
Ook Commissievoorzitter Ursula von der Leyen mengde zich persoonlijk in het debat, wat de politieke zwaarte van de kwestie onderstreept. In een verklaring aan het Franse persbureau AFP stelde zij dat Europa "onvoorstelbaar gedrag zoals het digitaal ontkleden van vrouwen en kinderen niet zal tolereren". Von der Leyen benadrukte dat toestemming en kinderbescherming niet overgelaten mogen worden aan techbedrijven om te schenden en te monetariseren. Zij wees erop dat de schade veroorzaakt door illegale beelden zeer reëel is, ook al betreft het digitaal gemanipuleerde content. De directe betrokkenheid van de Commissievoorzitter is een duidelijk signaal dat de Europese Unie bereid is om haar volledige politieke en juridische gewicht in te zetten tegen platforms die fundamentele rechten schenden.
Consequenties onder de Digital Services Act
De Digital Services Act (DSA), die sinds 2023 van kracht is en tot de meest ambitieuze digitale regelgeving ter wereld behoort, biedt de Europese Commissie verstrekkende handhavingsbevoegdheden tegen grote online platforms. Platforms die hun verplichtingen onder deze wetgeving schenden, riskeren boetes tot zes procent van hun wereldwijde jaaromzet. Voor een bedrijf van de omvang van X kan dit neerkomen op miljarden euro's aan potentiële sancties. In het meest extreme geval beschikt de Commissie over de bevoegdheid om de dienstverlening van een platform binnen de Europese Unie tijdelijk op te schorten. Dit laatste redmiddel is nog nooit toegepast, maar de dreiging ervan onderstreept de ernst van de situatie.
Het huidige onderzoek richt zich specifiek op de artikelen 34 en 35 van de DSA, die betrekking hebben op systemische risico's. Volgens FinancialContent, een financiële nieuwsdienst die de zaak analyseerde, heeft de Commissie een zogeheten "materialisatie van risico's"-kennisgeving uitgevaardigd aan X. Dit betekent dat de toezichthouder van oordeel is dat de risico's die X had moeten identificeren en mitigeren, zich daadwerkelijk hebben gemanifesteerd in de vorm van concrete schade. Het onderzoek zal nagaan of X voorafgaand aan de uitrol van Grok's beeldbewerkingsfuncties de vereiste risicobeoordelingen heeft uitgevoerd. Eveneens wordt onderzocht of de door X genomen maatregelen na de eerste signalen van misbruik adequaat en tijdig waren.
Dit is overigens bepaald niet de eerste keer dat X in aanvaring komt met Europese toezichthouders onder de DSA. In december 2025 legde de Commissie het platform reeds een sanctie van 120 miljoen euro op – destijds equivalent aan ongeveer 140 miljoen dollar – wegens schending van transparantieverplichtingen. Deze boete had specifiek betrekking op de zogeheten blauwe verificatievinkjes, die volgens de Commissie kwalificeerden als "misleidende ontwerpkeuzes" die gebruikers blootstelden aan oplichting en manipulatie. Elon Musk reageerde destijds op de boete met het woord "bullshit", een reactie die door internationale media breed werd uitgemeten. De combinatie van de eerdere boete en het huidige onderzoek suggereert een patroon van non-compliance dat de Commissie wellicht zal meewegen in haar uiteindelijke oordeel.
Wereldwijde handhavingsdruk neemt toe
De juridische problemen voor xAI en X beperken zich geenszins tot het Europese continent. Volgens een uitgebreide analyse van TechPolicy.Press, een gespecialiseerde publicatie op het gebied van technologiebeleid, hebben inmiddels minstens acht landen formele acties ondernomen tegen X en xAI naar aanleiding van de Grok-controverse. In het Verenigd Koninkrijk opende Ofcom, de Britse mediatoezichthouder, op 12 januari 2026 een formeel onderzoek onder de Online Safety Act. Dit onderzoek richt zich op de vraag of X heeft voldaan aan zijn verplichtingen om de verspreiding van illegale content, waaronder materiaal van seksueel kindermisbruik en niet-consensuele intieme beelden, te voorkomen. De Britse toezichthouder onderzoekt specifiek de rol van Grok bij de creatie en distributie van dergelijke content.
In de Verenigde Staten is eveneens sprake van aanzienlijke handhavingsdruk, hoewel het gefragmenteerde Amerikaanse regelgevingslandschap een gecoördineerde aanpak bemoeilijkt. Californische procureur-generaal Rob Bonta noemde Grok's functionaliteiten "schokkend" en kondigde een onderzoek aan. Daarnaast stuurden procureurs-generaal van 35 Amerikaanse staten een gezamenlijke brief aan X waarin zij het bedrijf oproepen om zijn plannen te onthullen voor het voorkomen van de creatie van niet-consensuele geseksualiseerde deepfakes. In Canada heeft de federale Privacy Commissioner zijn lopende onderzoek naar X uitgebreid om te bezien of Grok werd gebruikt voor het genereren van expliciete deepfakes zonder toestemming. Dit Canadese onderzoek omvat nu ook xAI zelf en richt zich op mogelijke schendingen van de federale privacywetgeving.
In Azië hebben autoriteiten bijzonder daadkrachtig opgetreden, met verschillende landen die overgingen tot volledige blokkades van de dienst. Maleisië en Indonesië werden de eerste landen ter wereld die de toegang tot Grok volledig blokkeerden, zoals gerapporteerd door Associated Press en andere persbureaus. De Filipijnen volgden kort daarna met een eigen blokkade. Interessant genoeg hebben zowel Maleisië als de Filipijnen hun blokkades inmiddels opgeheven nadat xAI aanvullende veiligheidsmaatregelen implementeerde en beloofde de tool voor de lokale markten aan te passen. Zuid-Korea heeft via zijn Personal Information Protection Commission een vooronderzoek gestart, terwijl de Korea Media Communications Commission aanvullende documentatie heeft opgevraagd over Grok's veiligheidsprotocollen. De wereldwijde golf van handhavingsacties illustreert de fundamentele uitdaging van het reguleren van AI-technologie die grenzen overschrijdt en sneller evolueert dan wetgevers kunnen volgen.
Discrepantie tussen beleid en praktijk
Als reactie op de internationale storm van kritiek verspreidde xAI een standaardverklaring waarin het bedrijf een nultolerantiebeleid jegens illegale content benadrukt. Een woordvoerder van X verwees journalisten van Associated Press naar een eerdere verklaring waarin het bedrijf stelt "toegewijd" te zijn aan het maken van X tot een "veilig platform voor iedereen". Het bedrijf claimt een "zero tolerance"-beleid te hanteren ten aanzien van seksuele exploitatie van kinderen, niet-consensuele naaktheid en ongewenste seksuele content. Deze verklaring werd op 14 januari 2026 gepubliceerd en bevatte de toezegging dat gebruikers niet langer in staat zouden zijn om personen af te beelden in "bikini's, ondergoed of andere onthullende kleding" – maar uitsluitend in jurisdicties waar dergelijke afbeeldingen als illegaal zijn aangemerkt.
Critici en onderzoekers wijzen er echter op dat er een aanzienlijke kloof gaapt tussen het beleid op papier en de daadwerkelijke handhaving in de praktijk. Opmerkelijk is dat xAI in eerste instantie reageerde op mediavragen met slechts drie woorden: "Legacy Media Lies" – een reactie die door ITV News en andere media werd gerapporteerd en breed bekritiseerd. Elon Musk zelf beweerde op X "letterlijk nul" naakte beelden van minderjarigen te hebben gezien die door Grok waren gegenereerd. Onderzoekers van CCDH wezen er echter op dat het primaire probleem niet volledig naakte beelden betrof, maar het plaatsen van minderjarigen in onthullende kleding zoals bikini's en ondergoed, evenals seksueel suggestieve poses. Bovendien constateerde CCDH dat op 15 januari – een dag na de aangekondigde restricties – nog steeds 29 procent van de in hun steekproef geïdentificeerde geseksualiseerde beelden van kinderen toegankelijk was op het platform.
De technische maatregelen die xAI heeft doorgevoerd, worden door experts als ontoereikend beschouwd. Volgens een analyse van FinancialContent ontbrak het Grok aan de fundamentele veiligheidsmaatregelen die bij concurrerende AI-producten standaard zijn. Waar concurrenten zoals Anthropic en OpenAI een iteratieve "weigerings"-architectuur hanteren – waarbij de AI achtereenvolgens de prompt, de latente ruimte en het uiteindelijke beeld toetst aan veiligheidsbeleid – zou Grok's integratie met het Flux.1 beeldgeneratiemodel dergelijke robuuste "wrappers" hebben ontbeerd. De onderzoekers wijzen specifiek naar Grok's "Spicy Mode"-functie, die volgens toezichthouders was geoptimaliseerd voor provocatieve output. Het feit dat xAI de beeldbewerkingsfuncties na de eerste kritiek beperkte tot betalende abonnees in plaats van volledig uit te schakelen, compliceerde volgens juridische experts de verdediging van het bedrijf, aangezien het suggereert dat de functionaliteit werd gemonetariseerd ondanks bekende risico's.
Afsluiting
Deze zaak illustreert op indringende wijze de groeiende spanning tussen AI-innovatie enerzijds en de bescherming van fundamentele rechten anderzijds. De snelheid waarmee generatieve AI-technologie evolueert, stelt wetgevers en toezichthouders wereldwijd voor ongekende uitdagingen. Het Grok-debacle toont aan dat de traditionele benadering van zelfregulering door techbedrijven ontoereikend is wanneer fundamentele rechten zoals menselijke waardigheid en kinderbescherming in het geding zijn. De Digital Services Act blijkt in dit licht een waardevol, zij het nog onbeproefd, instrument om grote techplatforms ter verantwoording te roepen. De vraag is of de handhavingscapaciteit van toezichthouders gelijke tred kan houden met de technologische ontwikkelingen.
Voor juristen die actief zijn op het snijvlak van technologie en recht biedt deze kwestie belangrijke lessen. Ten eerste onderstreept de zaak het belang van proactieve compliance: wachten tot de toezichthouder ingrijpt is bepaald geen wenselijke strategie, zoals de opeenvolgende sancties tegen X demonstreren. Ten tweede illustreert de mondiale golf van handhavingsacties de noodzaak voor bedrijven om te anticiperen op een lappendeken van nationale en regionale regelgeving. Een functionaliteit die in één jurisdictie acceptabel is, kan in een andere tot blokkades of substantiële boetes leiden. Ten derde wijst de zaak op het groeiende belang van risicobeoordelingen en documentatie: het ontbreken van adequate "red-teaming"-protocollen en trainingsdatadocumentatie heeft xAI kwetsbaar gemaakt onder zowel de DSA als de recent in werking getreden AI Act.
De bredere implicaties van deze zaak reiken verder dan X en Grok alleen. Zoals TechPolicy.Press opmerkte, zet de EU's gebruik van artikelen 34 en 35 van de DSA – gericht op systemische risico's – een precedent voor de wijze waarop andere landen AI-platforms zouden kunnen reguleren. De fragmentatie van de internationale respons, met uiteenlopende juridische kaders en handhavingsinstrumenten per land, plaatst hernieuwde aandacht op coördinatieorganen zoals het Global Online Safety Regulators Network (GOSRN). Voor de juridische praktijk betekent dit dat expertise op het gebied van internationale technologieregulering steeds essentiëler wordt. De verwachting is dat de komende jaren meer handhavingsacties zullen volgen, niet alleen tegen X maar tegen alle platforms die generatieve AI integreren zonder adequate veiligheidsmaatregelen.