Partnerbijdrage van

Partnerbijdragen vallen buiten de redactionele verantwoordelijkheid

AI in de advocatuur: een spanningsveld tussen innovatie en vertrouwelijkheid.

De NOvA legt de verantwoordelijkheid bij de advocaat, maar in de praktijk is de werking van AI-systemen vaak een black box. Hoe realistisch is het om te verwachten dat advocaten deze risico's zelfstandig kunnen inschatten?

Delen:

beeld: AI generated

Vertrouwelijkheid als kernwaarde

De recente aanbevelingen van de Nederlandse Orde van Advocaten (NOvA) over AI in de advocatuur geven een helder uitgangspunt: vertrouwelijkheid staat voorop. Privacy, databeveiliging en dataverwerking moeten goed geregeld zijn, en de advocaat blijft te allen tijde eindverantwoordelijk voor de bescherming van cliëntgegevens.

Een duidelijke waarschuwing

De NOvA formuleert dit in een recent artikel scherp: “Het uploaden van volledige dossiers of andere gevoelige informatie in willekeurige tools is niet verstandig.” Daarbij wordt expliciet aangegeven dat advocaten eerst onderzoek moeten doen naar de beveiliging en voorwaarden van een AI-tool voordat zij deze gebruiken.

Wat wordt er feitelijk gevraagd?

In de praktijk betekent dit dat een advocaat moet kunnen beoordelen:

  • waar gegevens terechtkomen
  • wie er toegang toe heeft
  • hoe data wordt verwerkt en opgeslagen
  • of privacy, databeveiliging en dataverwerking daadwerkelijk goed geregeld zijn

De impliciete norm is daarmee duidelijk: zonder voldoende inzicht in de technische werking is gebruik van AI al snel onverantwoord.

De advocaat is eindverantwoordelijk

De NOvA laat hierover geen twijfel bestaan: de verantwoordelijkheid blijft volledig bij de advocaat liggen. Dat betekent dat eventuele fouten, datalekken of onjuiste verwerking van vertrouwelijke cliëntgegevens uiteindelijk voor rekening en risico van de advocaat komen.

Juist in combinatie met de beperkte controle over AI-systemen vergroot dit het risico aanzienlijk. De advocaat moet verantwoordelijkheid dragen voor processen die hij in de praktijk niet volledig kan overzien.

De realiteit: beperkte controle

Voor veel advocaten is dit moeilijk uitvoerbaar. AI-systemen functioneren grotendeels als een ‘black box’. Datastromen en verwerking zijn niet volledig inzichtelijk, terwijl de feitelijke controle vaak bij de leverancier ligt.

Daar komt bij dat veel juridische AI-oplossingen relatief jong zijn en zich snel ontwikkelen. Volledige technische controle en voorspelbaarheid zijn in de praktijk niet altijd gegarandeerd, zelfs niet bij grote, gevestigde partijen zoals Microsoft, waar recent een AI-gerelateerd incident rond Copilot aan het licht kwam.

Van inschatting naar zekerheid

Dit legt een zware verantwoordelijkheid bij de individuele advocaat. De vraag is of deze verantwoordelijkheid in de praktijk volledig kan worden waargemaakt. In plaats van te vertrouwen op complexe en vaak moeilijk verifieerbare inschattingen, ligt het voor de hand om risico’s structureel te beperken.

Internationale en sectorale norm

In verschillende omringende landen wordt van advocaten verwacht dat zij vertrouwelijke gegevens verwijderen of anonimiseren voordat zij AI gebruiken. Een vergelijkbare lijn zien we in de medische sector in Nederland.

Bescherming van cliënt en patiënt

De onderliggende gedachte is dezelfde: zowel de cliënt in de advocatuur als de patiënt in de zorg moet erop kunnen vertrouwen dat zijn gegevens niet onbedoeld in AI-systemen terechtkomen. Vertrouwelijkheid is geen afweging, maar een uitgangspunt.

Een robuuste en werkbare aanpak

Door vertrouwelijke cliëntgegevens vooraf te verwijderen of te anonimiseren, wordt het risico niet alleen kleiner, maar ook beheersbaar. Daarmee verschuift de focus van complexe risico-inschattingen naar een duidelijke en veilige standaard voor de praktijk.

Delen:

Scroll naar boven