Kritiek op AI? Maak eerst onderscheid
De kritiek op kunstmatige intelligentie (AI) zwelt aan. In onderwijs, media en beleid klinkt dezelfde waarschuwing: AI zou ons denkvermogen uithollen, kritische vaardigheden ondermijnen en afhankelijkheid creëren van systemen die we niet begrijpen. Dat zijn geen luchtige zorgen. Integendeel — ze verdienen serieuze aandacht.
Wat ons bij The Innovative Lawyer echter opvalt, is dat veel van die kritiek haar scherpte verliest doordat verschillende vragen door elkaar lopen. De techniek zelf, de keuzes van ontwikkelaars, de marketing, het gebruik in de praktijk en de maatschappelijke gevolgen worden vaak samengevoegd tot één vaag probleem: “AI”. En wie met hagel schiet, mist vaak het doel.
In dit artikel maken we het debat preciezer. Niet om kritiek weg te wuiven, maar om haar effectiever te maken. Want pas als we helder krijgen op welk niveau een bezwaar speelt, kunnen we ook bepalen wat een zinnige reactie is.
Vijf niveaus om AI-kritiek te begrijpen
Om orde te brengen in het debat onderscheiden we vijf analytische niveaus. Ze bouwen op inzichten uit filosofie en sociologie van technologie, maar zijn vooral bedoeld als praktisch denkraam.
1. De techniek zelf
Waar hebben we het eigenlijk over? In het huidige debat gaat het meestal om generatieve AI, en daarbinnen vooral om taalmodellen. Dat zijn statistische systemen die op basis van waarschijnlijkheid tekst (of beeld, audio, video) genereren. Ze simuleren taal, ze begrijpen haar niet.
Dat is een belangrijk inzicht — en veel kritiek op dit niveau is terecht. Taalmodellen hebben geen intentie, geen bewustzijn en geen waarheidsbegrip. Ze voorspellen wat waarschijnlijk volgt, meer niet. Wie zegt: “AI denkt niet echt”, heeft dus gelijk. Maar dat zegt nog niets over hoe we deze techniek ontwerpen, inzetten of reguleren. Daarvoor moeten we verder kijken.
2. Hoe AI ontwikkeld wordt
Op dit niveau verschuift de aandacht van wat de techniek kan naar hoe zij gemaakt wordt. Welke data worden gebruikt? Wie labelt die data? Welke doelen sturen het ontwerp? Hier worden waarden gematerialiseerd.
Veel terechte kritiek hoort thuis op dit niveau: gebrek aan transparantie, dubieuze dataverzameling, arbeidsomstandigheden, auteursrecht. Belangrijk is het onderscheid: dit zijn keuzes, geen natuurwetten. En waar keuzes zijn, zijn alternatieven. Kritiek op ontwikkelpraktijken is dus geen afwijzing van de technologie als zodanig, maar een pleidooi voor andere manieren van bouwen.
3. Hoe AI gepresenteerd wordt
“ChatGPT denkt.” “De AI begrijpt je.” Antropomorfe taal en interfaces zijn geen onschuldige marketing. Ze sturen verwachtingen en gebruik. Door systemen te presenteren als gesprekspartners, nodigen bedrijven gebruikers uit om meer vertrouwen toe te kennen dan gerechtvaardigd is.
Deze kritiek is fundamenteel anders dan kritiek op de techniek zelf. Dezelfde onderliggende modellen kunnen ook nuchter, transparant en terughoudend worden gepresenteerd. Als we vinden dat gebruikers worden misleid, moeten we het dus hebben over ontwerp en framing, niet over “AI” in abstracto.
4. Hoe AI gebruikt wordt
Hetzelfde systeem kan denken versterken of vervangen — afhankelijk van gebruik. Wordt AI ingezet als hulpmiddel binnen een vakmanschap, of als antwoordmachine die het denkwerk overneemt?
Veel zorgen over leerverlies, eenheidsworst of gemakzucht horen thuis op dit niveau. Ze zijn reëel, maar niet onvermijdelijk. Gebruik is contextafhankelijk. Een taalmodel kan een denkspiegel zijn, een sparringpartner, een schrijfcoach — of een snelkoppeling naar middelmatigheid. Dat verschil wordt niet door de techniek beslist, maar door keuzes van gebruikers en organisaties.
5. De maatschappelijke inbedding
Tot slot: wat betekent AI voor arbeidsmarkt, democratie, ongelijkheid en macht? Wie beheert de infrastructuur? Wie profiteert? Wie stelt de regels?
Hier gaat het over beleid, regulering en publieke waarden. De vraag is niet alleen wat AI doet met de samenleving, maar ook welke AI wij willen toelaten en ondersteunen. Technologie is geen natuurverschijnsel; ze wordt mede gevormd door wetgeving, investeringen en instituties.
Waarom dit onderscheid ertoe doet
Zonder deze gelaagdheid praten we langs elkaar heen. Kritiek die eigenlijk gaat over marketing (niveau 3) wordt gepresenteerd als kritiek op de techniek (niveau 1). Zorgen over onderwijs (niveau 4) worden afgewenteld op algoritmes. Maatschappelijke problemen (niveau 5) krijgen een technische zondebok.
Dat is niet alleen analytisch slordig, het is ook praktisch schadelijk. Want verkeerde diagnose leidt tot verkeerde remedies. Een verbod op “AI in het onderwijs” lost niets op als het probleem zit in toetsvormen. Strengere regels voor modellen helpen weinig als de schade voortkomt uit ondoordacht gebruik.
Acht veelgehoorde bezwaren, scherper bekeken
We zien steeds dezelfde argumenten terugkeren. Bijna allemaal bevatten ze een kern van waarheid — maar spelen ze op een ander niveau dan vaak wordt aangenomen.
“AI denkt niet echt.” Klopt (niveau 1). Maar dat diskwalificeert de techniek niet als instrument.
“Je kunt AI niet als bron gebruiken.” Eens (niveau 1). Maar als hulpmiddel kan ze wél waardevol zijn (niveau 4).
“AI geeft altijd ‘ongeveer’.” Taal is per definitie contextueel. De vraag is: ongeveer genoeg waarvoor? (niveau 4)
“AI maakt ons dom.” Effecten hangen af van gebruik en ontwerp, niet van de techniek alleen (niveaus 3 en 4).
“We leven in een post-truth era door AI.” Misinformatie is ouder dan AI; de uitdaging zit in weerbaarheid en instituties (niveau 5).
“Vroeger was alles beter.” Vaak een reflex die structurele problemen maskeert.
“AI vernietigt onderwijs/journalistiek/democratie.” Apocalyptische framing verdoezelt waar de echte verantwoordelijkheden liggen.
“AI discrimineert.” Reëel probleem, maar veroorzaakt door data, ontwerp en maatschappelijke ongelijkheid (niveaus 2 en 5).
In al deze gevallen geldt: precisie maakt de kritiek sterker, niet zwakker.
Hoe dan wel?
Bij The Innovative Lawyer pleiten we niet voor blind optimisme, maar voor gerichte kritiek. Dat betekent:
Benoem welk niveau je bekritiseert.
Wijs wie verantwoordelijk is: ontwikkelaars, aanbieders, gebruikers, beleidsmakers.
Koppel elk bezwaar aan een passende interventie: beter ontwerp, andere presentatie, scholing, regulering.
De vraag “Is AI goed of slecht?” is te grof om zinvol te beantwoorden. De relevante vragen zijn: welke AI, ontwikkeld door wie, gepresenteerd hoe, gebruikt waarvoor en ingebed in welke structuren?
Tot slot
Technologie overkomt ons niet. Wij maken keuzes — als ontwikkelaars, professionals en samenleving. Juist daarom is nuance geen luxe, maar noodzaak. Wie kritisch denken serieus neemt, kan zich geen zwart-witdebat veroorloven.
De echte uitdaging is niet om vóór of tegen AI te zijn, maar om helder genoeg te denken om de juiste keuzes te maken. En die helderheid begint bij onderscheid maken.