AI-geletterdheid is geen cursus.
Het is een organisatiestrategie.
De AI Act is helder: elke organisatie die AI inzet, moet AI-geletterdheid structureel borgen. Niet als eenmalig initiatief, maar als doorlopend proces. Organisaties die dit nu goed inrichten, staan sterker - richting klanten, toezichthouders en medewerkers.
Art. 4 AI Act
Elke organisatie die AI-systemen inzet of ontwikkelt, moet zorgen dat medewerkers voldoende AI-geletterd zijn. De verplichting geldt organisatiebreed.
4 stappen
Identificeren, doelen stellen, uitvoeren en evalueren. De Autoriteit Persoonsgegevens beschrijft een cyclisch model voor structurele borging.
4 niveaus
De AI Act hanteert vier risicocategorieën. Hoe hoger het risico van je AI-toepassing, hoe zwaarder de eisen aan kennis en documentatie.
De regels zijn er. Jouw organisatie moet ze vertalen.
De AI Act en AP-richtlijnen wijzen dezelfde kant op: AI-geletterdheid vraagt om structuur, beleid en aantoonbaarheid. Dat is geen last, maar een kans om grip te krijgen op AI-gebruik binnen je organisatie.
EU AI-verordening (AI Act)
Artikel 4 verplicht aanbieders en gebruikers van AI-systemen om te zorgen dat hun personeel over voldoende AI-geletterdheid beschikt. De verantwoordelijkheid ligt bij de organisatie, niet bij de individuele medewerker. De intensiteit van de verplichtingen hangt af van de risicoclassificatie.
Verordening (EU) 2024/1689Autoriteit Persoonsgegevens
De AP positioneert AI-geletterdheid als een doorlopend, structureel proces in vier stappen. Een organisatie die deze cyclus niet documenteert en periodiek herhaalt, loopt risico bij de beoordeling van naleving.
AP Stappenplan AI-geletterdheidRisicoclassificatie AI Act
De AI Act onderscheidt vier risiconiveaus: onaanvaardbaar, hoog, beperkt en minimaal. Organisaties moeten per AI-toepassing bepalen in welke categorie die valt. Hoogrisico-systemen brengen zwaardere verplichtingen met zich mee.
Verordening (EU) 2024/1689, Titel IIISectorspecifieke toezichthouders
Naast de AI Act gelden in veel sectoren aanvullende eisen. Financiële instellingen, zorgorganisaties en overheidsorganen hebben te maken met sectorspecifiek toezicht dat AI-geletterdheid als voorwaarde stelt.
DNB, NZa, AFM - sectorale richtlijnenVier stappen naar structurele borging
De Autoriteit Persoonsgegevens beschrijft een cyclisch model dat elke organisatie kan volgen. Niet eenmalig, maar doorlopend.
Identificeren
Welke AI-systemen zijn in gebruik? Door wie? Waarvoor? Waar gaan de data naartoe? En in welke risicocategorie vallen ze?
Doelen stellen
Welk kennisniveau is passend per rol? Wat moet een bestuurder weten versus een data-analist of klantenservicemedewerker?
Uitvoeren
Gerichte opleiding, interne kennisdeling en praktische richtlijnen voor dagelijks gebruik van AI-tools.
Evalueren
Periodiek toetsen of kennis en kaders nog actueel zijn. AI-technologie verschuift snel, en je borging moet meebewegen.
Vijf vragen die jouw organisatie nu moet kunnen beantwoorden
De AI Act en AP wijzen op dezelfde kernpunten. Organisaties die hier antwoord op hebben, zijn klaar voor de toekomst.
Welke AI-systemen worden gebruikt, en waarvoor?
Zonder overzicht van tools, gebruikers en datastromen is risicobeheersing onmogelijk. De AP noemt dit expliciet de eerste stap.
Welk kennisniveau verwacht je per rol?
Niet iedereen hoeft hetzelfde te weten, maar de organisatie bepaalt wat voldoende is. Afgestemd op functie, verantwoordelijkheden en risicoprofiel.
Wie controleert AI-output, en hoe?
Zonder georganiseerd toezicht op fouten, bias en hallucinaties is menselijk toezicht een lege norm. Richt verificatieprocessen in.
Is er een samenhangend AI-beleid?
Opleiding zonder kaders is vrijblijvend. Kaders zonder opleiding zijn onuitvoerbaar. Beide moeten op elkaar aansluiten.
Kun je aantonen wat je doet?
Er is geen certificeringsplicht, maar bij toezicht of incidenten weegt het ontbreken van documentatie en borging mee in de beoordeling.
Wat wij voor jouw organisatie doen
Praktisch, proportioneel en aantoonbaar. Wij helpen organisaties van inventarisatie tot structurele borging.
AI-inventarisatie
Systematisch overzicht van alle AI-tools, gebruikers en datastromen. Inclusief risicoclassificatie per toepassing.
Organisatiebreed AI-beleid
Praktisch beleidskader dat opleiding, toezicht en verantwoordelijkheden verbindt. Geen papieren tijger.
Gerichte opleiding
Trainingsprogramma's afgestemd op rol en risicoprofiel, van bestuurder tot uitvoerend medewerker.
Aantoonbaar compliant
Documentatie en evaluatiecyclus waarmee je kunt aantonen dat jouw organisatie AI-geletterdheid serieus neemt.
Van eendaagse training tot meerjarig programma
Twee routes, een doel: jouw organisatie AI-geletterd en aantoonbaar compliant.
Training AI-geletterdheid voor organisaties
Een intensieve dag die alles dekt: van AI-fundamentals tot praktisch gebruik, van juridisch kader tot verificatieprotocol. Inclusief certificaat.
- AI Fundamentals - hoe AI-systemen werken
- Juridisch kader - AI Act, risicoclassificatie & verplichtingen
- Privacy & dataprotectie bij AI-gebruik
- Praktische workshop: AI verantwoord inzetten
- Risico's, hallucinaties & verificatie
- Kennistoets & certificaat
Opleidingsplan 2026-2028
Een driejarig programma met maatwerk per rol, doorlopende evaluatie en volledige documentatie conform AP-richtlijnen.
Fundament leggen
Basiskennis, nulmeting, AI-beleid vaststellen. Tot 15 uur per medewerker.
Verdieping & borging
Rolspecifieke vaardigheden, evaluatiecyclus, AI Act volledig van kracht.
Optimalisatie & innovatie
Continue verbetering, nieuwe ontwikkelingen, kennisdeling.
Klaar om jouw organisatie
AI-proof te maken?
Wij helpen je met een concrete beoordeling van je huidige AI-gebruik en de inrichting van een organisatiebreed programma.