AI blijkt emotioneel intelligenter dan je medemens
Onderzoekers uit Genève en Bern testten zes AI-modellen op emotionele intelligentie en de resultaten liegen er niet om: AI scoort gemiddeld 81 %, mensen daarentegen halen slechts 56 %. GPT-4 bleek zelfs in staat om zélf nieuwe emotionele-intelligentietests te maken die net zo betrouwbaar zijn als de originelen. Natuurlijk ‘voelt’ AI niet echt, maar het vermogen om emotioneel intelligente reacties te simuleren opent deuren naar mentale gezondheidszorg en klantenservice. Of we daar blij mee moeten zijn, is een tweede.
Hoe AI de emotietest verslaat
De Zwitserse onderzoekers lieten GPT-4, ChatGPT-o1, Claude 3.5 Haiku, Copilot 365, Gemini 1.5 Flash en DeepSeek V3 vijf verschillende EI-tests maken: van het herkennen van gemengde emoties tot het voorstellen van de beste regulatiestrategie in een conflictsituatie. De machines adviseerden consequent slimmer dan de menselijke normgroep. Alsof dat nog niet genoeg was, bouwde GPT-4 met één prompt eigen varianten van de tests – en die waren voor menselijke proefpersonen even duidelijk, realistisch en moeilijk als het origineel. De boodschap is glashelder: wat wij ooit zagen als een subtiele, haast mystieke menselijke vaardigheid, is voor een taalmodel een statistische routine.
Van empathische robot tot data-vampier
Mooie kansen, want denk aan de GGZ-wachtrijen: een model dat 24/7 emotie herkent en respons geeft, kan de druk op hulpverleners verlichten. Klantenservice? Een bot die niet kribbig wordt na het veertigste boze telefoontje klinkt aanlokkelijk. Maar er zit gif in de staart. Een AI die jouw stemanalyse koppelt aan kredietwaardigheid of ontslagrisico kan emotionele data omtoveren tot een economische hefboom. Gezichtsexpressies, stemtrillingen, woordkeuze – allemaal biometrische of zelfs gezondheidsgegevens. De AVG noemt ze “bijzonder”, de AI Act bestempelt emotieherkenning op school of werk als verboden, tenzij het strikt medisch of veiligheidsgerelateerd is. Wie daar toch mee experimenteert, ziet de toezichthouder al aan de deur kloppen.
Hoog-risico of regelrechte no-go?
Sinds de AI Act (EU 2024/1689) staat emotion AI sowieso in de hoogste risicoklasse zodra de uitkomst de rechten van individuen kán raken. Dus: verplichte data-governance, bias-analyses, CE-markering, incident-reporting. Bovendien geldt een direct verbod op AI die emoties afleidt voor personeelsmonitoring of leerlingbeoordeling. De praktijk: het merendeel van de HR-tools die “engagement” uit Zoom-opnames willen destilleren, valt dood. En juist díe toepassingen waren de eersten die de technologie in commerciële pakketten goten.
Aansprakelijkheid: zwakke schakel
De gedroomde AI Liability Directive, met zijn omgekeerde bewijslast voor slachtoffers, haalde de eindstreep niet. Tot Brussel een nieuw voorstel oplepelt, leunen we op oud gereedschap: productaansprakelijkheid (defect software), onrechtmatige daad (onvoldoende zorgvuldigheid) en arbeid- of zorgrechtelijke normen. Juridisch grijsgebied genoeg. Als de chatbot van een zorgverzekeraar een depressieve klant verkeerde hoop geeft, is dat een algorithmisch “adviesfout” of louter een veredelde FAQ? Contractueel dichttimmeren is stap één, maar zonder transparant model-dossier staat de aanbieder alsnog met lege handen.
Drie lessen voor juristen
Eerst impact, dan innovatie. Verplicht een dubbele intake: Data Protection Impact Assessment én AI-risicoanalyse voordat er ook maar één regel code in productie gaat.
Clausules met tanden. Neem in IT- of SaaS-contracten audit-rechten op voor trainingsdata, prompt-logs en modelupdates. Zonder inzage geen vertrouwen.
Leg het uit, of laat het. De AI Act eist explainability. Beschrijf niet alleen wat het systeem zegt, maar waarom het een bepaalde emotie detecteert en op basis daarvan een stap aanbeveelt. Geen black box? Dan ook geen rode vlag bij de toezichthouder.
Tot slot: empathie op afroep, geruststellend of griezelig?
We staan op de drempel van een tijdperk waarin emotionele intelligentie niet langer schaarse people-skill is, maar schaalbaar cloud-product. Dat klinkt efficiënt – en het is efficiënt – maar schuurt langs de randen van privacy, autonomie en menselijke waardigheid. Zolang algoritmen emoties detecteren vanuit databases vol westerse meme-cultuur en Reddit-confessies, blijft bias een tikkende tijdbom. Juristen doen er goed aan nu al kaders op te stellen: wat mag, wat moot, wat nooit. De technologie dendert door, met of zonder juridische zegen. Beter dus het stuur pakken vóór de emotionele snelweg volloopt met juridische ravage.