Belgische Orde van Advocaten brengt richtlijnen uit over AI-gebruik

De Belgische Orde van Advocaten heeft richtlijnen uitgebracht over AI-gebruik in de advocatuur, de zogenaamde Richtlijnen voor advocaten voor het gebruik van Artificiële Intelligentie. De kernboodschap is dat AI gebruikt mag worden als hulpmiddel, maar het blijft gewoon een ICT-tool. Geen verplichting, geen verbod - maar wel de verantwoordelijkheid van de advocaat.

  • AI-gebruik hoeft niet gemeld te worden aan cliënten (net zoals je niet meldt dat je Word gebruikt)

  • Advocaat blijft eindverantwoordelijk voor output

  • Geheimhouding en data-issues zijn aandachtspunten

  • Chatbots richting cliënten mogen, mits duidelijk aangegeven dat het AI is

De richtlijnen in meer detail

De richtlijnen beschrijven de principes en verplichtingen voor advocaten bij het gebruik van artificiële intelligentie (AI) in hun beroepsuitoefening.

1. Algemeen

  • AI-gebruik is noch verplicht, noch verboden.

  • Het gebruik van AI is een eigen keuze en verantwoordelijkheid van de advocaat.

  • Advocaten moeten de basisprincipes van AI en Large Language Models (LLMs) begrijpen.

    • LLMs leren patronen uit grote datasets en genereren tekst op basis van statistische waarschijnlijkheden.

  • Advocaten moeten AI op een deskundige en ethische manier gebruiken, met respect voor de beroepsregels en deontologische verplichtingen.

2. Competentieplicht en controle van resultaten

  • AI mag niet blindelings worden vertrouwd; advocaten moeten de gegenereerde output kritisch evalueren.

  • Advocaten dienen de wetgeving, rechtsleer en rechtspraak die AI gebruikt of citeert, te controleren.

  • Advocaten zijn verplicht om de gebruiksvoorwaarden van AI-tools zorgvuldig door te nemen, zoals:

    • Training en opslag van gegevens

    • Locatie van verwerking

    • Aansprakelijkheid van het platform

    • Intellectuele eigendomsrechten

3. Gegevensbescherming en beroepsgeheim

  • Geen invoer van persoonsgegevens in AI-tools, tenzij dit strikt noodzakelijk is.

  • Indien persoonsgegevens verwerkt moeten worden, moet de advocaat transparantie waarborgen en toestemming vragen.

  • Beroepsgeheim moet gerespecteerd worden:

    • Geen vertrouwelijke informatie invoeren in AI-systemen.

    • Uitzondering: indien AI binnen een gesloten, veilige omgeving wordt gebruikt.

4. Gebruik van chatbots en aansprakelijkheid

  • Advocaten mogen chatbots ontwikkelen, maar cliënten moeten duidelijk geïnformeerd worden dat ze met een AI-systeem communiceren.

  • De advocaat blijft altijd eindverantwoordelijk voor de AI-output.

  • Alle algemene aansprakelijkheidsprincipes blijven gelden.

Deze richtlijnen onderstrepen het belang van kritisch en ethisch gebruik van AI binnen de advocatuur, waarbij deskundigheid, gegevensbescherming en beroepsgeheim centraal staan.

Nederland

Ook de Nederlandse Orde van Advocaten is nog druk bezig. Onze inschatting is dat die richtlijnen weinig anders zullen zijn, want dit is gewoon de enige logische manier waarop je AI-tools kunt inkaderen in een professionele adviespraktijk zoals die van de advocaat.

Het punt van de geheimhouding en gegevensbescherming (cliëntdossiers, persoonsgegevens) blijft bestaan, maar is ook niet iets dat een toezichthouder centraal kan oplossen. Hiervoor moet een kantoor zelf de juiste contracten afsluiten, audits uitvoeren, etc.

Vorige
Vorige

AI & digitalisering van justitiële samenwerking: de belangrijkste bepalingen uit recente EU-wetgeving

Volgende
Volgende

Legal Prompt van de week: Analyseren van declaraties