Legal AI-leveranciers over NOvA-advies: ‘Solide fundament, maar flinke dobber’

Eind november kwam de Nederlandse Orde van Advocaten met zijn langverwachte aanbevelingen aangaande AI-gebruik door advocaten. Mr. maakte een rondje langs de velden en sprak met vier Nederlandse leveranciers van Legal AI-oplossingen. Zij noemen het document een “solide fundament”, maar hebben bij enkele adviezen ook ernstige bedenkingen. “Voor een organisatie van juristen is dit onbegrijpelijk.”

Delen:

Legal AI-leveranciers over NOvA-adviezen: ‘Solide fundament, maar flinke dobber’ - Mr. Online
Beeld: Depositphotos

Aanbevelingen AI in de advocatuur, zo luidt de weinig creatieve, maar wel transparante titel van het document dat de NOvA sinds eind november ter download aanbiedt op zijn website. Het drie pagina’s tellende adviesdocument zat al even in de pijpleiding. In landen als Duitsland, het Verenigd Koninkrijk en België kwamen advocatenordes in de afgelopen jaren al eerder met adviezen, aanbevelingen en in sommige gevallen zelfs dwingende richtlijnen omtrent AI-gebruik in de sector. Nederland maakt dus een inhaalslag – eentje waar tal van kantoren reikhalzend naar hebben uitgekeken.

Zij waren niet de enige: ook de diverse aanbieders van Legal AI-oplossingen hebben de NOvA-aanbevelingen met belangstelling tegemoet gezien. Het zijn immers hun tools waarmee advocaten goed uit de voeten moeten kunnen en waarmee zij binnen de lijntjes van de NOvA-adviezen moeten kleuren. Mr. legde de aanbevelingen van de Orde voor aan vier van zulke leveranciers: LegalPA, LegalMike, Zeno en Legal Mind.

Wilde Westen

Martijn Doornbos, LegalMike

“De tijd van het Wilde Westen is voorbij”, steekt Martijn Doornbos, voormalig advocaat en tegenwoordig CEO van LegalMike, van wal. “Deze aanbevelingen zijn een noodzakelijke stap naar volwassenheid.” Doornbos is blij dat de NOvA niet allerlei verboden probeert op te leggen, maar juist naar de verantwoordelijkheid van advocaten zelf wijst. “De nadruk ligt sterk op deskundigheid: eerst begrijpen wat je doet, dan pas toepassen. Dat is precies de nuance die de markt nodig heeft. Het dwingt advocaten om niet alleen naar de compliance van de tool te kijken, maar ook kritisch naar hun eigen digitale vaardigheden.”

Ook bij Zeno is men blij dat de NOvA aandacht schenkt aan AI-aanbevelingen. Floor de Graaff, voormalig advocaat en tegenwoordig werkzaam bij Zeno, zegt dat er in de markt veel behoefte is aan meer grip en kennis bij het maken van verantwoorde keuzes. “Voor advocaten is het niet altijd eenvoudig om te beoordelen wat verantwoord handelen op het gebied van AI precies inhoudt, mede omdat niet iedereen beschikt over de benodigde technische kennis. Wij zien de aanbevelingen van de NOvA dan ook als een stap in de goede richting.”

Jelle Burggraaf, oprichter van Legal Mind, sluit zich daarbij aan. Hij spreekt van een “solide fundament”, maar is tegelijkertijd kritisch. “Het document laat weinig zien qua toekomstperspectief”, zegt Burggraaf. “De aanbevelingen zijn primair minimumnormen voor het huidige moment, maar in de praktijk werken kantoren nu al met toepassingen die verder gaan dan die basisondersteuning.”

Strenger

Ook Sebastian van de Poppe, CEO van LegalPA, is enigszins verbaasd over de koers die de NOvA kiest. “Ik ben verrast dat de NOvA strengere eisen stelt aan het gebruik van juridische AI-tools dan in alle andere Europese landen”, zegt hij. “Er wordt duidelijk meer van advocaten gevraagd.” Van de Poppe doelt daarmee onder meer op het advies om alleen ‘strikt noodzakelijke informatie’ in AI-tools te gebruiken, en dus veel informatie te schrappen voordat een document via een AI-tool wordt verwerkt.

“Dit gaat veel verder dan bijvoorbeeld simpelweg pseudonimiseren – namen en adressen verwijderen – wat de norm is in enkele landen om ons heen. Ook alle overige informatie die niet strikt noodzakelijk is, zal door advocaten dienen te worden verwijderd. Dit zag volgens mij niemand aankomen.”

Toestemming

Sebastian van de Poppe, LegalPA

Het belangrijkste verschil met adviezen van advocatenordes in andere landen, is echter de aanbeveling van de Orde om eerst aan cliënten toestemming te vragen voordat AI mag worden gebruikt in hun dossiers. “In geen enkel ander land is dit de werkwijze”, zegt Van de Poppe daarover. “Dit betekent dat veel cliënten, in reactie op zo’n toestemmingsverzoek, gaan vragen hoe hun privacy wordt gewaarborgd. Daar zal de advocaat een goed antwoord op moeten hebben.”

Ook bij Doornbos stuit het advies om per cliënt om toestemming te vragen op onbegrip. “De NOvA suggereert hiermee dat het gebruik van een juridische AI-tool per definitie een risico voor de cliënt vormt. Dat is ten onrechte.” Doornbos trekt de vergelijking met andere digitale hulpmiddelen die advocaten al jaren gebruiken. “Vergelijkbare toestemming wordt niet gevraagd voor het gebruik van cloudopslag, zoekmachines of tekstverwerkers, terwijl ook deze techniek steeds vaker – maar lang niet altijd zichtbaar – AI-functionaliteiten bevatten.”

Moeilijk houdbaar

Wat Burggraaf betreft kan het toestemmings-advies van de NOvA, zeker op langere termijn, niet standhouden. “Het uitgangspunt is transparantie, en dat is volkomen terecht. Maar een strikt toestemmingsregime voor elke vorm van AI-gebruik? Dat is in de praktijk moeilijk houdbaar.” Burggraaf voorziet een toekomst waarin steeds meer advocaten voor steeds meer processen AI-tools gebruiken. Het zou wat hem betreft dan realistisch zijn om onderscheid te maken tussen AI die inhoudelijk cliëntgegevens verwerkt enerzijds, en alle andere AI anderzijds. Voor die laatste categorie zou dan een meldingsplicht moeten volstaan, vindt Burggraaf.

“AI wordt een standaardonderdeel van juridisch vakmanschap, vergelijkbaar met zoekmachines of digitale jurisprudentiebanken. Wanneer een advocaat AI inzet om interne notities te structureren of concepten redactioneel te verbeteren, zonder dat cliëntgegevens het systeem verlaten, is een herhaald toestemmingsmoment niet werkbaar.”

Ook De Graaff karakteriseert het toestemmingsvereiste zoals de NOvA dat adviseert als onverwacht, en vindt dat zo’n advies verder strekt dan de huidige professionele standaard. “Zeker wanneer je dit beziet in het licht van de algemene voorschriften rondom het inzetten van automatisering uit de gedragsregels. Met een toestemmingsvereiste verleg je als het ware het zwaartepunt voor de keuzes die je maakt bij het uitoefenen van je opdracht als advocaat naar de cliënt.”

Hoge prijs

Een andere passage in de NOvA-aanbevelingen die bij alle aanbieders op verbazing kan rekenen, is er één over goedkope tegenover dure AI-tooling. De Orde schrijft daarover: “Hoe minder je betaalt voor een tool, hoe meer data er waarschijnlijk gebruikt wordt”. Zeer dubieus, vindt Van de Poppe. “Voor een organisatie van juristen is zo’n uitspraak in mijn ogen onbegrijpelijk.” Ook Burggraaf vindt de vuistregel van de NOvA te simplistisch. “Het is te kort door de bocht om een lage prijs direct te koppelen aan hoog datagebruik. Niet de prijs, maar transparantie van datastromen, contractvoorwaarden en technische inrichting” zou wat hem betreft leidend moeten zijn.

Doornbos kan zich bij dat laatste volledig aansluiten, en kan zich evenmin vinden in de stelling van de Orde. “Het is een nuttige vuistregel voor de bewustwording: ‘If you’re not paying, you’re the product’. Maar een hoge licentieprijs is geen garantie voor privacy. Niet de prijs, maar de technische inrichting van een AI-tool is waar het om gaat.”

Gevaarlijke gedachte

Floor de Graaff, Zeno

De Graaff ziet het al net zo, maar begrijpt tegelijkertijd waar de aanname van de Orde vandaan komt: “Sterke beveiligingswaarborgen en het structureel hooghouden daarvan brengen hoge kosten mee. Denk aan certificeringen, penetratietesten, enzovoorts. Die kosten zie je terug in de prijs van een product.” Maar, zo benadrukt ze tegelijkertijd, “dat wil niet zeggen dat duurdere tools per definitie veiliger zijn.”

Naast al die mitsen en maren schuilt er wat Van de Poppe betreft nog een verregaander risico in de stellingname van de NOvA dat goedkopere AI-tools waarschijnlijk meer data gebruiken voor training van het model. “Het probleem is dat deze stelling een gevaarlijke gedachte normaliseert: dat veiligheid te koop zou zijn.” Maar wie prijs verwart met veiligheid, creëert volgens de LegalPA-CEO schijnzekerheid. “En dat is misschien wel het gevaarlijkste wat je in deze sector kunt doen.”

Verplichting tot deskundigheid

Een opvallend aspect is dat de NOvA in zijn aanbevelingen relatief veel verantwoordelijkheid bij de digitale volwassenheid van de advocaat legt, zo constateren de vier aanbieders. LegalMike-CEO Doornbos spreekt in dat kader van “een verplichting tot deskundigheid”. Het valt hem in positieve zin op dat de Orde advocaten adviseert om opleidingen en trainingen te volgen over prompt engineering, bias-mitigatie en het herkennen en voorkomen van AI-hallucinaties.

“Dit verschuift het probleem van de IT-afdeling naar de advocaat zelf. Het is niet meer genoeg om te zeggen: ‘Mijn kantoor heeft een veilige tool aangeschaft’. Je moet als individuele advocaat begrijpen hoe de tool redeneert. Die erkenning – dat AI een vaardigheid is, en geen trucje – vind ik de grootste winst van de aanbevelingen.”

Groot en klein

Jelle Burggraaf, Legal Mind

Suggesties voor verbeteringen in toekomstige edities van het adviesdocument hebben de aanbieders ook. Legal Mind-oprichter Burggraaf suggereert om een zogeheten ‘tweelagenmodel’ te introduceren als het gaat om het AI-beleid dat de NOvA aan advocatenkantoren adviseert om op te stellen. “Hiermee legt de NOvA dezelfde lasten op aan grote en kleine kantoren”, zegt Burggraaf daarover. “Een meer proportionele aanpak zou passender zijn. Een basisset voor alle kantoren, en een uitgebreide set voor grotere kantoren en hoogrisico-praktijken. Zodat de eenpitter die alleen AI gebruikt voor wat redactionele ondersteuning zich niet geconfronteerd ziet met allerlei compliance-vraagstukken.”

Van de Poppe drukt de Orde op het hart om de aanbeveling om elke cliënt om toestemming voor AI-gebruik te vragen los te laten. “De druk op advocaten wordt daarmee te hoog. Cliënten zullen gaan eisen dat advocaten, net als in Duitsland, hele dossiers onherkenbaar maken. En zelfs als de cliënt toestemming geeft, mogen alleen strikt noodzakelijke gegevens met een AI-tool worden gedeeld. Maar hoe bepaal je wat strikt noodzakelijk is?”

Transparantie

Ook De Graaff zou de Orde aanraden om het toestemmingsvereiste achterwege te laten en te volstaan met een aanbeveling tot transparantie over AI-gebruik. Advocaten hoeven cliënten dan niet telkens om toestemming te vragen. “Transparantie over de inzet van AI helpt bovendien om scherp te blijven op verantwoord gebruik en bij de keuze voor passende tools.”

“Een ding is mij wel duidelijk”, concludeert Van de Poppe als het gaat om de impact van het toestemmingsvereiste, mocht dat een breed gedragen richtlijn binnen de advocatuur worden. “De sector gaat daar een flinke dobber aan hebben.” Doornbos ziet het zo somber nog niet in, maar zou ook liefst zien dat de Orde zijn advies heroverweegt. “Ik zou dit wijzigen naar een algemene informatieplicht. Zolang de advocaat eindverantwoordelijk is voor zijn advies, dan is de tool – of dat nu een wetboek of een AI-tool is – irrelevant voor de cliënt. Het gaat de cliënt immers om het resultaat en de vertrouwelijkheid, niet om de technische weg ernaartoe.”

 

Ilona van de Kooi, onderzoeker bij het Center for Law, Design & AI aan de TU Delft en sinds kort tevens legal tech-columnist bij Mr., schrijft over de reacties van de aanbieders:

“De kritische reacties van enkele leveranciers van legal AI-oplossingen zijn begrijpelijk vanuit hun perspectief als ondernemer en maken zichtbaar dat wat in de markt als ‘onwerkbaar’ wordt gepresenteerd, vaak samenvalt met wat juridisch en ethisch juist wenselijk is. Waar leveranciers gericht zijn op adoptie, schaalbaarheid en gebruiksgemak, formuleert de NOvA zijn aanbevelingen vanuit de verantwoordelijkheid om de kernwaarden van de advocatuur te waarborgen in een technologisch gedreven markt.

Ilona van de Kooi, TU Delft

Opvallend is dat enkele leveranciers de aanbevelingen van de NOvA framen als ‘strengere eisen’ en ‘minimumnormen’. Door de aanbevelingen te presenteren als lasten voor individuele advocaten, verschuift de discussie van zorgvuldigheid naar de vraag of het allemaal nog wel werkbaar is. Daarbij ontstaat al snel het beeld dat bepaalde waarborgen, zoals het vragen van toestemming aan de cliënt voor AI-gebruik, vooral in de weg staan aan efficiënt werken. Juist omdat commerciële prikkels niet automatisch leiden tot maximale zorgvuldigheid, bieden de aanbevelingen van de NOvA hier een noodzakelijk tegenwicht.

Voor veel advocaten betekenen de aanbevelingen van de NOvA vooral dat zij zich explicieter moeten verdiepen in wat AI is, hoe deze technologie werkt en waar de grenzen van verantwoord gebruik liggen. Daarmee wordt AI-gebruik onderdeel van juridisch vakmanschap. Die transitie vraagt om nauwere samenwerking tussen advocaten, hun cliënten, data scientists, opleiders én leveranciers van legal-AI-oplossingen. Een goede samenwerking begint bij het erkennen dat verantwoord AI-gebruik een gezamenlijke verantwoordelijkheid is waarin verschillende disciplines elkaar nodig hebben. Juist in die gezamenlijke zoektocht krijgt verantwoord AI-gebruik betekenis in de praktijk.”

Wilt u vanaf nu elke week een samenvatting van al het nieuws van Mr. in uw mailbox? Klik hier

Delen:

Het belangrijkste nieuws wekelijks in uw inbox?

Abonneer u op de Mr. nieuwsbrief: elke dinsdag rond de lunch een update van het nieuws van de afgelopen week, de laatste loopbaanwijzigingen en de recentste vacatures. Meld u direct aan en ontvang elke dinsdag de Mr. nieuwsbrief.

Scroll naar boven