Bijna derde van organisaties vindt trainen van GenAI lastiger dan gedacht
Generatieve AI (GenAI) is in korte tijd uitgegroeid tot een veelbelovende technologie, maar de implementatie blijkt in de praktijk uitdagender dan veel organisaties hadden voorzien. Uit een internationaal onderzoek van AI-leverancier ABBYY, uitgevoerd door Opinium Research, blijkt dat 31 procent van de bedrijven het trainen van GenAI-modellen moeilijker vond dan verwacht. Het onderzoek, uitgevoerd onder 1.200 senior managers in de VS, het VK, Frankrijk, Duitsland, Australië en Singapore, laat zien dat de beloofde efficiëntie van AI vaak pas na een periode van frustratie en bijsturing wordt gerealiseerd.
Hoewel organisaties wereldwijd fors investeren in generatieve AI, blijkt de stap van experiment naar duurzame implementatie complex. De verwachtingen zijn hooggespannen, maar veel bedrijven lopen al in de eerste fase tegen obstakels aan. Een belangrijk deel van deze problemen heeft te maken met menselijke factoren: gebrek aan kennis, beperkte data-infrastructuur en onduidelijke doelen. De uitkomsten van het ABBYY-rapport maken duidelijk dat de inzet van GenAI niet alleen een technologische, maar vooral een organisatorische uitdaging is.
De resultaten sluiten aan bij een bredere trend die zichtbaar is in recente marktanalyses: organisaties onderschatten het werk dat nodig is om AI effectief te trainen, te onderhouden en te integreren. Waar veel bedrijven hoopten op een “plug-and-play”-benadering, blijkt in de praktijk dat de kwaliteit van output sterk afhangt van data, context en de deskundigheid van de mensen die met het systeem werken.
Knelpunten bij implementatie
De respondenten in het onderzoek noemen een aantal terugkerende obstakels. 29 procent wijst op een gebrek aan mensen met de juiste vaardigheden om AI-systemen te trainen en beheren. Dit tekort aan expertise geldt niet alleen voor ontwikkelaars, maar ook voor businessanalisten en proceseigenaren die moeten begrijpen hoe AI beslissingen neemt. Daarnaast noemt 18 procent dat de gebruikte tools in de praktijk meer tijd kosten dan ze besparen, wat wijst op inefficiënte integratie en onvoldoende afstemming met bestaande werkprocessen.
Een ander opvallend knelpunt betreft “hallucinaties” – foutieve of verzonnen antwoorden die overtuigend klinken maar feitelijk onjuist zijn. 16 procent van de respondenten ervaart dit als een structureel probleem. Hallucinaties ontstaan vaak doordat modellen onvoldoende worden gevoed met actuele, domeinspecifieke of betrouwbare data. Ze illustreren dat AI zonder context geneigd is om plausibele, maar onjuiste antwoorden te genereren, wat in bedrijfsomgevingen kan leiden tot risico’s in besluitvorming en compliance.
Deze bevindingen tonen dat veel implementatieproblemen niet voortkomen uit de technologie zelf, maar uit de manier waarop ze wordt toegepast. Generatieve AI vraagt om een herziening van interne processen en databeheer, iets wat veel organisaties pas gaandeweg ontdekken. De les is dat succes niet afhangt van modelkeuze alleen, maar vooral van governance, datakwaliteit en menselijke begeleiding.
Het hardnekkige dataprobleem
Volgens meerdere experts ligt de kern van de moeilijkheden bij de kwaliteit en samenhang van data. Markus Demirci, CEO van Rollio AI, stelt dat bedrijven vaak werken met verouderde en versnipperde informatie die verspreid is over legacy-systemen. Deze fragmentatie verhindert dat AI-modellen patronen herkennen of context begrijpen. Demirci vergelijkt slecht gevoede AI treffend met “huilende baby’s”: systemen die wel signalen geven, maar zonder betekenisvolle interpretatie.
Een model dat autonoom beslissingen moet nemen, heeft duidelijke kaders en context nodig om betrouwbaar te functioneren. Zonder uniforme datastandaarden, governance-structuren en toegang tot actuele informatie blijven outputs onvoorspelbaar. In juridische, financiële of medische omgevingen kan dit tot aanzienlijke risico’s leiden, variërend van verkeerde interpretaties tot privacy-inbreuken. Datakwaliteit is daarmee niet alleen een operationeel vraagstuk, maar ook een juridisch en ethisch thema.
De noodzaak van hoogwaardige data wordt verder versterkt door de snelle schaalvergroting van AI-toepassingen. Naarmate bedrijven meerdere modellen of leveranciers inzetten, groeit de kans op inconsistenties tussen datasets. Het gevolg is dat zelfs kleine fouten in data grote gevolgen kunnen hebben voor beslissingen die door AI worden ondersteund. Goed databeheer is dus geen randvoorwaarde meer, maar de ruggengraat van succesvolle GenAI-toepassing.
Domeinspecifieke kloof tussen model en praktijk
Een tweede structureel obstakel is de kloof tussen generieke taalmodellen en specifieke bedrijfsprocessen. Brian Shannon, CTO van Flexera, wijst erop dat de meeste grote taalmodellen ontworpen zijn om algemene vragen te beantwoorden, terwijl organisaties vaak te maken hebben met sterk afgebakende, sectorspecifieke problemen. Dit spanningsveld leidt tot teleurstelling wanneer bedrijven verwachten dat een generiek model zonder aanpassing inzetbaar is voor specialistische taken.
De misvatting dat een algemeen model alles kan, is wijdverbreid. In werkelijkheid vragen branches als recht, gezondheidszorg of productie om modellen die zijn getraind op domeinspecifieke data en jargon. Zonder die aanpassing kan AI verkeerde aannames doen of relevante nuances missen. Voor juristen en compliance-professionals is dat een belangrijk aandachtspunt, omdat foutieve interpretaties direct kunnen leiden tot aansprakelijkheids- of reputatierisico’s.
Shannon benadrukt dat maatwerk in GenAI-toepassing cruciaal is. Organisaties moeten niet streven naar het breed inzetten van één model, maar naar gericht afgestemde systemen die zijn ontworpen voor specifieke use-cases. Dit vergt investeringen in dataselectie, prompt-engineering en kwaliteitscontrole, maar de winst ligt in betrouwbaarheid en bruikbaarheid van de output.
Van opstartproblemen naar volwassen gebruik
Ondanks de genoemde uitdagingen is het beeld niet uitsluitend negatief. Een groot deel van de organisaties slaagt erin om na een periode van aanpassing structureel waarde te realiseren met generatieve AI. Volgens het ABBYY-onderzoek zegt 82 procent van de managers tevreden of zeer tevreden te zijn over de uiteindelijke resultaten. Bedrijven die doorzetten, slagen er doorgaans in om hun AI-systemen beter af te stemmen op bestaande processen en om duidelijke doelstellingen te formuleren.
Shannon geeft aan dat succes vaak voortkomt uit gerichte sturing en meetbare doelen. In plaats van vage ambities (“we gaan AI gebruiken”) werken succesvolle organisaties met concrete prestatie-indicatoren, zoals “we verhogen de omzet van productlijn X met 10 procent door AI-ondersteuning binnen zes maanden”. Deze benadering maakt de toegevoegde waarde van AI zichtbaar en vergroot het draagvlak intern.
Volgens Demirci kan zelfs mislukking waardevol zijn, mits het wordt gebruikt om te leren en bij te sturen. Wanneer resultaten tegenvallen, fungeert dat als een signaal om data, processen of verwachtingen te herzien. Die iteratieve aanpak voorkomt dat organisaties grote bedragen investeren in richtingloze experimenten. Zo wordt GenAI niet een technologische gok, maar een gecontroleerd proces van continue verbetering.
Dubbel gezicht van GenAI: belofte en realiteit
Het ABBYY-rapport laat daarmee het dubbele gezicht van generatieve AI zien. Enerzijds belooft de technologie enorme efficiëntiewinst, snellere besluitvorming en nieuwe vormen van automatisering. Anderzijds vereist die belofte een zorgvuldige voorbereiding, heldere governance en hoogwaardige data. Bedrijven die deze basisvoorwaarden negeren, lopen het risico dat hun AI-projecten vastlopen in misinformatie, inefficiëntie of gebrek aan vertrouwen.
Voor juristen en beleidsadviseurs is deze ontwikkeling relevant omdat ze raakt aan thema’s als aansprakelijkheid, transparantie en data-integriteit. Wanneer AI beslissingen ondersteunt of uitvoert, moet de herkomst en betrouwbaarheid van de gebruikte data te allen tijde kunnen worden aangetoond. Dit sluit direct aan bij de verplichtingen uit de Europese AI-verordening (AI Act), die eist dat bedrijven risico’s beheersen en controleerbare documentatie bijhouden over AI-systemen.
De conclusie is helder: het trainen en invoeren van GenAI is complexer dan veel organisaties verwachten, maar de baten zijn aanzienlijk wanneer de juiste randvoorwaarden aanwezig zijn. Goede data, duidelijke context en realistische doelstellingen vormen de sleutel tot succes. De uitdaging ligt niet in het bezitten van de technologie, maar in het leren omgaan met haar beperkingen en mogelijkheden – een les die steeds meer organisaties, soms met vallen en opstaan, in de praktijk leren.