AI-gebruik groeit, beleid blijft achter. Herken je dat?
De AFM publiceerde begin april het rapport AI in de Nederlandse assetmanagementsector: gebruik groeit, risico's groeien mee. De conclusie is helder: de helft van de onderzochte instellingen gebruikt AI of gaat dat binnen een jaar doen, maar beleid, ethiek en controles lopen daar flink bij achter. De patronen die de AFM blootlegt, zijn herkenbaar ver buiten de financiele sector.
Gebruik loopt voor op organisatie
Van de 323 onderzochte assetmanagers gebruikt 53% al AI of heeft concrete plannen daarvoor. Bij handelaren voor eigen rekening ligt dat percentage zelfs boven de 70%. AI wordt vooral ingezet voor informatieverzameling, data-analyse en het schrijven van onderzoeksrapporten. Tools als ChatGPT en CoPilot draaien inmiddels dagelijks mee.
Maar ondanks dat gebruik had 71% van de onderzochte instellingen in 2024 geen apart AI-budget. De meeste investeringen bedroegen minder dan 1% van de omzet. Tegelijkertijd verwacht 60% dat die investeringen de komende jaren omhoog moeten. De technologie rent vooruit, terwijl de organisatie erachter nog aan het wandelen is.
Dat patroon zie je overal. Medewerkers experimenteren op eigen houtje, terwijl de organisatie geen kaders heeft gesteld. Geen beleid over welke tools mogen worden gebruikt. Geen afspraken over wat er wel en niet in een prompt mag. Geen overzicht van waar vertrouwelijke gegevens terechtkomen.
Beleid en ethiek: de blinde vlek
De cijfers zijn ontnuchterend. Een kwart van de instellingen heeft geen enkel beleid voor AI-gebruik door medewerkers. Bij generatieve AI, denk aan ChatGPT en vergelijkbare tools, loopt dat op tot ruim tweederde. Meer dan de helft heeft geen ethisch handboek of gedragscode die specifiek over AI gaat.
Dat is opvallend, zeker voor een sector die zwaar gereguleerd is. Maar de vraag die je jezelf moet stellen: hoe ziet dat er bij jouw organisatie uit? Werk je met vertrouwelijke informatie? Heb je een zorgplicht? Dan is AI-gebruik zonder kaders geen klein risico.
De AFM wijst ook op de afhankelijkheid van een klein aantal technologieleveranciers, vrijwel allemaal niet-Europees. Wie volledig leunt op Microsoft of OpenAI zonder na te denken over wat er gebeurt als die diensten veranderen, duurder worden of hun voorwaarden aanpassen, bouwt op andermans fundament.
Uitlegbaarheid is geen luxe
Naarmate AI-modellen geavanceerder worden, wordt het lastiger om te verklaren waarom een model tot een bepaalde uitkomst komt. De AFM noemt dat een risico voor de financiele sector. Maar uitlegbaarheid is in elke professionele context essentieel.
Als je AI inzet voor analyse, advies of besluitvorming, moet je kunnen uitleggen hoe je tot je conclusie bent gekomen. "De AI zei het" is geen argument. Dat vraagt om bewuste keuzes: welke tools zet je in, voor welke taken, en hoe borg je dat er altijd menselijk toezicht blijft?
Wat kun je hier vandaag mee?
Het AFM-rapport gaat over vermogensbeheerders, maar de les is breder. AI-gebruik zonder kaders is een risico. Niet omdat AI gevaarlijk is, maar omdat ongecontroleerd gebruik dat wel kan zijn.
Drie dingen die je nu kunt doen. Stel helder beleid op over welke AI-tools medewerkers mogen gebruiken en waarvoor. Zorg dat er afspraken zijn over het invoeren van vertrouwelijke gegevens. En investeer in kennis: niet alleen in hoe AI werkt, maar ook in de risico's en beperkingen ervan. De EU AI-verordening verplicht organisaties inmiddels om te zorgen dat medewerkers AI-geletterd zijn. Die verplichting geldt sinds februari 2025.