Belgische Orde van Advocaten brengt richtlijnen uit over AI-gebruik
De Belgische Orde van Advocaten heeft richtlijnen uitgebracht over AI-gebruik in de advocatuur, de zogenaamde Richtlijnen voor advocaten voor het gebruik van Artificiële Intelligentie. De kernboodschap is dat AI gebruikt mag worden als hulpmiddel, maar het blijft gewoon een ICT-tool. Geen verplichting, geen verbod - maar wel de verantwoordelijkheid van de advocaat.
AI-gebruik hoeft niet gemeld te worden aan cliënten (net zoals je niet meldt dat je Word gebruikt)
Advocaat blijft eindverantwoordelijk voor output
Geheimhouding en data-issues zijn aandachtspunten
Chatbots richting cliënten mogen, mits duidelijk aangegeven dat het AI is
De richtlijnen in meer detail
De richtlijnen beschrijven de principes en verplichtingen voor advocaten bij het gebruik van artificiële intelligentie (AI) in hun beroepsuitoefening.
1. Algemeen
AI-gebruik is noch verplicht, noch verboden.
Het gebruik van AI is een eigen keuze en verantwoordelijkheid van de advocaat.
Advocaten moeten de basisprincipes van AI en Large Language Models (LLMs) begrijpen.
LLMs leren patronen uit grote datasets en genereren tekst op basis van statistische waarschijnlijkheden.
Advocaten moeten AI op een deskundige en ethische manier gebruiken, met respect voor de beroepsregels en deontologische verplichtingen.
2. Competentieplicht en controle van resultaten
AI mag niet blindelings worden vertrouwd; advocaten moeten de gegenereerde output kritisch evalueren.
Advocaten dienen de wetgeving, rechtsleer en rechtspraak die AI gebruikt of citeert, te controleren.
Advocaten zijn verplicht om de gebruiksvoorwaarden van AI-tools zorgvuldig door te nemen, zoals:
Training en opslag van gegevens
Locatie van verwerking
Aansprakelijkheid van het platform
Intellectuele eigendomsrechten
3. Gegevensbescherming en beroepsgeheim
Geen invoer van persoonsgegevens in AI-tools, tenzij dit strikt noodzakelijk is.
Indien persoonsgegevens verwerkt moeten worden, moet de advocaat transparantie waarborgen en toestemming vragen.
Beroepsgeheim moet gerespecteerd worden:
Geen vertrouwelijke informatie invoeren in AI-systemen.
Uitzondering: indien AI binnen een gesloten, veilige omgeving wordt gebruikt.
4. Gebruik van chatbots en aansprakelijkheid
Advocaten mogen chatbots ontwikkelen, maar cliënten moeten duidelijk geïnformeerd worden dat ze met een AI-systeem communiceren.
De advocaat blijft altijd eindverantwoordelijk voor de AI-output.
Alle algemene aansprakelijkheidsprincipes blijven gelden.
Deze richtlijnen onderstrepen het belang van kritisch en ethisch gebruik van AI binnen de advocatuur, waarbij deskundigheid, gegevensbescherming en beroepsgeheim centraal staan.
Nederland
Ook de Nederlandse Orde van Advocaten is nog druk bezig. Onze inschatting is dat die richtlijnen weinig anders zullen zijn, want dit is gewoon de enige logische manier waarop je AI-tools kunt inkaderen in een professionele adviespraktijk zoals die van de advocaat.
Het punt van de geheimhouding en gegevensbescherming (cliëntdossiers, persoonsgegevens) blijft bestaan, maar is ook niet iets dat een toezichthouder centraal kan oplossen. Hiervoor moet een kantoor zelf de juiste contracten afsluiten, audits uitvoeren, etc.