Vertrouwelijkheid als kernwaarde
De recente aanbevelingen van de Nederlandse Orde van Advocaten (NOvA) over AI in de advocatuur geven een helder uitgangspunt: vertrouwelijkheid staat voorop. Privacy, databeveiliging en dataverwerking moeten goed geregeld zijn, en de advocaat blijft te allen tijde eindverantwoordelijk voor de bescherming van cliëntgegevens.
Een duidelijke waarschuwing
De NOvA formuleert dit in een recent artikel scherp: “Het uploaden van volledige dossiers of andere gevoelige informatie in willekeurige tools is niet verstandig.” Daarbij wordt expliciet aangegeven dat advocaten eerst onderzoek moeten doen naar de beveiliging en voorwaarden van een AI-tool voordat zij deze gebruiken.
Wat wordt er feitelijk gevraagd?
In de praktijk betekent dit dat een advocaat moet kunnen beoordelen:
- waar gegevens terechtkomen
- wie er toegang toe heeft
- hoe data wordt verwerkt en opgeslagen
- of privacy, databeveiliging en dataverwerking daadwerkelijk goed geregeld zijn
De impliciete norm is daarmee duidelijk: zonder voldoende inzicht in de technische werking is gebruik van AI al snel onverantwoord.
De advocaat is eindverantwoordelijk
De NOvA laat hierover geen twijfel bestaan: de verantwoordelijkheid blijft volledig bij de advocaat liggen. Dat betekent dat eventuele fouten, datalekken of onjuiste verwerking van vertrouwelijke cliëntgegevens uiteindelijk voor rekening en risico van de advocaat komen.
Juist in combinatie met de beperkte controle over AI-systemen vergroot dit het risico aanzienlijk. De advocaat moet verantwoordelijkheid dragen voor processen die hij in de praktijk niet volledig kan overzien.
De realiteit: beperkte controle
Voor veel advocaten is dit moeilijk uitvoerbaar. AI-systemen functioneren grotendeels als een ‘black box’. Datastromen en verwerking zijn niet volledig inzichtelijk, terwijl de feitelijke controle vaak bij de leverancier ligt.
Daar komt bij dat veel juridische AI-oplossingen relatief jong zijn en zich snel ontwikkelen. Volledige technische controle en voorspelbaarheid zijn in de praktijk niet altijd gegarandeerd, zelfs niet bij grote, gevestigde partijen zoals Microsoft, waar recent een AI-gerelateerd incident rond Copilot aan het licht kwam.
Van inschatting naar zekerheid
Dit legt een zware verantwoordelijkheid bij de individuele advocaat. De vraag is of deze verantwoordelijkheid in de praktijk volledig kan worden waargemaakt. In plaats van te vertrouwen op complexe en vaak moeilijk verifieerbare inschattingen, ligt het voor de hand om risico’s structureel te beperken.
Internationale en sectorale norm
In verschillende omringende landen wordt van advocaten verwacht dat zij vertrouwelijke gegevens verwijderen of anonimiseren voordat zij AI gebruiken. Een vergelijkbare lijn zien we in de medische sector in Nederland.
Bescherming van cliënt en patiënt
De onderliggende gedachte is dezelfde: zowel de cliënt in de advocatuur als de patiënt in de zorg moet erop kunnen vertrouwen dat zijn gegevens niet onbedoeld in AI-systemen terechtkomen. Vertrouwelijkheid is geen afweging, maar een uitgangspunt.
Een robuuste en werkbare aanpak
Door vertrouwelijke cliëntgegevens vooraf te verwijderen of te anonimiseren, wordt het risico niet alleen kleiner, maar ook beheersbaar. Daarmee verschuift de focus van complexe risico-inschattingen naar een duidelijke en veilige standaard voor de praktijk.

.jpg)