
Actualiteiten

Autoriteit Persoonsgegevens: maak van AI-geletterdheid prioriteit
Organisaties die AI-systemen ontwikkelen of gebruiken, moeten vanaf 2 februari 2025 zorgen dat hun werknemers 'AI-geletterd' zijn. De Autoriteit Persoonsgegevens adviseert organisaties om van AI-geletterdheid een prioriteit te maken en dit strategisch aan te pakken, bijvoorbeeld met behulp van een meerjarig actieplan voor het opbouwen van een volwassen niveau van AI-geletterdheid.

EU lanceert InvestAI om €200 miljard aan investeringen in AI te mobiliseren
Op 10 februari heeft Commissievoorzitter Ursula von der Leyen op de Artificial Intelligence (AI) Action Summit in Parijs het InvestAI-initiatief gelanceerd, bedoeld om €200 miljard aan investeringen in AI te mobiliseren. Dit omvat een nieuw Europees fonds van €20 miljard voor AI-gigafabrieken. Deze grootschalige AI-infrastructuur is nodig om de open, gezamenlijke ontwikkeling van de meest complexe AI-modellen mogelijk te maken en Europa tot een AI-continent te maken.

Weeg gebruik van AI in de rechtszaal op een goudschaaltje
In juli 2024 werd het expliciete gebruik van ChatGPT door een kantonrechter voornamelijk met argwaan ontvangen. De kantonrechter bediende zich van dit artificial-intelligence-systeem (AI-systeem) zonder transparant en controleerbaar te laten zien hoe het was gebruikt en ogenschijnlijk zonder te reflecteren op de potentiële risico’s. In dit redactioneel bespreken wij enkele kansen en problemen bij het gebruik van AI in de rechtspraak, met een aanbeveling ten aanzien van verantwoorde implementatie van AI in het rechtsstelsel.

OpenAI biedt nu mogelijkheid om data op te slaan in Europa
Voor veel organisaties is essentieel dat hun data de EU niet verlaat. OpenAI speelt hierop in door nu zogenaamde dataresidentie in Europa aan te bieden. Wat houdt dit precies in en wat betekent het voor jouw organisatie?

Eerste zaak onder de AI Act voor TikTok en X wegens verboden AI-praktijken en manipulatie
De Stichting Onderzoek Marktinformatie (SOMI), een Nederlandse non-profitorganisatie die zich inzet voor de bescherming van fundamentele rechten van consumenten en minderjarigen, heeft een collectieve rechtszaak aangespannen in Duitsland tegen TikTok en X. SOMI voert collectieve procedures en eist schadevergoeding op basis van de EU Collective Redress Directive 2020/1828.

European Criminal Bar Association reageert op AI Act richtlijnen
De European Criminal Bar Association (ECBA) heeft op uitnodiging van de Europese Commissie gereageerd op de richtlijnen van de Commissie betreffende de toepassing van de definitie van een AI-systeem en de verboden AI-praktijken zoals vastgesteld in de AI-Verordening (Verordening (EU) 2024/1689).

Europese Commissie publiceert richtlijnen voor definitie van AI Systeem
De Europese Commissie heeft richtlijnen gepubliceerd voor de definitie van AI-systeem uit de AI Act (AIA). De AIA is niet altijd duidelijk. Door richtsnoeren uit te geven over de definitie van AI-systemen, wil de Commissie aanbieders en andere relevante partijen helpen bij het bepalen of een softwaresysteem als een AI-systeem kan worden beschouwd, om zo een effectieve toepassing van de regels te vergemakkelijken.

Legal Prompt van de week: Prompten met DeepSeek
In onze eerdere blog heb je kunnen lezen hoe DeepSeek de AI-wereld op zijn grondvesten heeft doen schudden. Maar wat als je het model zelf wilt gebruiken? En meer in het bijzonder, als je dat zou willen doen zonder je data te delen met servers in China of Amerika? Deze week laten we zien hoe dat kan.

Nieuw model ChatGPT o3-mini: wanneer te gebruiken?
Op 31 januari heeft OpenAI weer een nieuw model van ChatGPT beschikbaar gesteld: ChatGPT o3-mini. OpenAI heeft o3-mini beschikbaar gemaakt voor zowel betaalde als gratis gebruikers van ChatGPT. Het vorige redeneermodel o1-mini zat nog achter een betaalmuur. O3-mini moet 24 procent sneller zijn dan o1-mini en nauwkeurigere antwoorden geven.

AI-geletterdheid: AP geeft richting
Een van de verplichtingen onder de AI Act is dat werknemers moeten worden opgeleid over wat AI voor hen betekent. Maar wat houdt dat precies in? De wet zelf geeft hier geen gedetailleerde invulling aan, alleen dat het afhankelijk is van de context. Gelukkig biedt de AP nu iets meer duiding, aansluitend op de considerans van de AI Act.

Eerste bepalingen uit AI Act zijn van kracht: wat betekent dit?
Op 2 februari 2025 zijn de eerste bepalingen van de EU AI Act in werking getreden. Dit markeert een belangrijke stap in de regulering van kunstmatige intelligentie binnen Europa. Twee essentiële aspecten springen eruit: AI geletterdheid (AI literacy) en het verbod op bepaalde AI-toepassingen. Voor organisaties betekent dit dat ze direct actie moeten ondernemen om te voldoen aan de nieuwe regelgeving. In onze blog bespreken we de gevolgen van deze bepalingen en waarom ze van belang zijn.

Transparantie over gebruik van taalmodellen
Soms leveren medewerkers, collega’s of studenten werk in waarvan je vermoedt dat het door ChatGPT is gemaakt, terwijl ze naar eigen zeggen dagen hebben gezwoegd op de tekst. Andersom komt ook voor: een tekst die wél grotendeels door generatieve AI is geproduceerd, maar als eigen handwerk wordt gepresenteerd. Het gebruik van generatieve AI is op zichzelf niet problematisch. Het wordt echter een probleem wanneer onduidelijk blijft in welke mate en op welke manier AI is ingezet. Om die reden is het goed om transparant te zijn over de mate waarin AI is gebruikt bij het genereren van documenten.

AP: pas op met gebruik DeepSeek
De Autoriteit Persoonsgegevens (AP) waarschuwt gebruikers van de app DeepSeek om heel voorzichtig en terughoudend met deze nieuwe chatbot om te gaan. “Mensen doen er verstandig aan om zichzelf de vraag te stellen of zij wel echt persoonlijke en andere gevoelige gegevens in deze app willen invoeren, aldus de AP. Als mensen persoonlijke informatie van anderen in de chatbot invoeren, is de vraag of dat überhaupt wel mag”, aldus de AP.

Alles wat je moet weten over DeepSeek & Qwen
Ruim een week geleden werd het Chinese AI-taalmodel DeepSeek gelanceerd, en sindsdien is de wereld van kunstmatige intelligentie in rep en roer. Wat begon als een relatief onopvallende aankondiging, is in korte tijd uitgegroeid tot een doorbraak met verstrekkende gevolgen. Het model, ontwikkeld door een startup uit Hangzhou, heeft niet alleen de AI-markt opgeschud, maar ook aanzienlijke schokgolven door de wereldwijde technologie- en financiële sector gestuurd. Maar DeepSeek is niet de enige Chinese AI-uitdager die Silicon Valley op scherp zet.

AI & digitalisering van justitiële samenwerking: de belangrijkste bepalingen uit recente EU-wetgeving
AI-tools worden steeds vaker gebruikt door zogenaamde justice professionals om de snelheid en efficiëntie van juridische procedures te verbeteren en administratieve lasten te verlichten. Digitale en AI-tools kunnen een revolutionaire rol spelen bij het verbeteren van de kwaliteit van justitie en stellen hen in staat zich te richten op meer inhoudelijke taken. Digitalisering en het gebruik van AI in de rechtspraak bieden aanzienlijke voordelen, maar kunnen ook bepaalde risico’s met zich meebrengen, waardoor een duidelijk regelgevend kader nodig is. In de afgelopen jaren is op EU-niveau een aanzienlijk aantal nieuwe regels overeengekomen die verschillende aspecten van de digitale ontwikkelingen in onze samenleving en economie bestrijken.

Belgische Orde van Advocaten brengt richtlijnen uit over AI-gebruik
De Belgische Orde van Advocaten heeft richtlijnen uitgebracht over AI-gebruik in de advocatuur, de zogenaamde Richtlijnen voor advocaten voor het gebruik van Artificiële Intelligentie. De kernboodschap is dat AI gebruikt mag worden als hulpmiddel, maar het blijft gewoon een ICT-tool. Geen verplichting, geen verbod - maar wel de verantwoordelijkheid van de advocaat. AI-gebruik hoeft niet gemeld te worden aan cliënten (net zoals je niet meldt dat je Word gebruikt). De advocaat blijft eindverantwoordelijk voor output. Geheimhouding en data-issues zijn aandachtspunten. Chatbots richting cliënten mogen, mits duidelijk aangegeven dat het AI is.

Legal Prompt van de week: Analyseren van declaraties
Elke week delen we op onze website de Legal Prompt van de Week om juristen te inspireren bij het gebruik van taalmodellen in hun dagelijkse werk. Of je nu op zoek bent naar een nieuwe invalshoek, een efficiëntere manier om informatie te analyseren of een innovatieve aanpak voor juridische vraagstukken, onze prompts helpen je slimmer gebruik te maken van taalmodellen en AI. Deze week delen we een prompt voor het analyseren van declaraties.

BREIN haalt groot AI taalmodel offline
BREIN heeft afgelopen week een groot Nederlands generatief AI taalmodel offline gehaald genaamd GEITje-7B. Het model was getraind op de grootste Nederlandstalige trainingsdataset die BREIN afgelopen zomer al offline haalde. BREIN heeft de aanbieder o.m. aangesproken omdat het model getraind was op tienduizenden kopieën van Nederlandstalige boeken uit illegale bron. Deze bron is Library Genesis, een dienst die door de Nederlandse rechter onrechtmatig is bevonden en op verzoek van BREIN wordt geblokkeerd door de Nederlandse access providers.

Wie is er aansprakelijk bij zelfrijdende auto’s?
In het najaar van 2024 kondigde Tesla aan dat we in de nabije toekomst een Tesla ‘Robotaxi’ zullen hebben zonder stuur en zonder pedalen. Waar we op dit moment nog slechts (deels) zelfrijdende auto’s kennen die onder menselijk toezicht staan, zullen er – als de aankondiging van Tesla uitkomt – in de nabije toekomst zelfrijdende auto’s zijn die niet langer onder menselijk toezicht staan. Wat betekent dit voor de aansprakelijkheid voor motorvoertuigen?

AI-geletterdheid: juridische verplichting én praktische uitdaging
Volgens de AI Act moeten organisaties die AI ontwikkelen of gebruiken hun medewerkers voldoende ‘AI-geletterd’ maken. Maar wat betekent dat precies? Het komt erop neer dat iedereen die verantwoordelijk is voor of werkt met AI-systemen over de kennis en vaardigheden beschikt om AI bewust en verantwoord in te zetten. Dit houdt in dat men zich niet alleen bewust is van de voordelen en kansen, maar ook van de risico’s en mogelijke schade die AI kan veroorzaken.