Onze cursisten, doorgaans werkzaam bij kleine en middelgrote advocatenkantoren, hebben meestal al de gratis versie van ChatGPT uitgeprobeerd, maar komen niet verder dan een samenvatting van een tekst of een opzetje voor een brief,’ vertelt voormalig advocaat Martijn Doornbos die sinds twee jaar de training ‘Het effectief en veilig gebruiken van ChatGPT in de juridische praktijk’ geeft. ‘Beginners lopen tegen de onzichtbare grenzen van de mogelijkheden aan en missen de kennis om een tool als ChatGPT effectief in te zetten voor complexere juridische taken. We zien koudwatervrees: onbekend maakt onbemind, terwijl generatieve AI (GenAI) ook kleine kantoren een voorsprong kan bieden.’
De advocatuur is volgens Doornbos een doelgroep die zich niet zomaar laat overtuigen van nieuwe, innovatieve technieken. ‘Fundamentele disruptie in de juridische sector is vooralsnog uitgebleven,’ stelt Doornbos. Met twee compagnons richtte hij het bedrijf LegalMike op, dat naast AI-trainingen ook een AI-tool voor juridisch bronnenonderzoek en advies heeft ontwikkeld (zie kader). ‘Tot een paar jaar geleden werd er nog volop gebruikgemaakt van de fax. Het project KEI uit 2018 dat digitaal procederen mogelijk moest maken, is mislukt. Kortom: voor fundamentele veranderingen moet je niet in de conservatieve juridische sector zijn.’
Advocatenkantoren onderschatten de invloed van AI, zo stelt de International Bar Association (IBA) in het onlangs verschenen rapport ‘Future of Legal Services’. AI wordt gezien als het probleem van volgend jaar, terwijl de focus daar nu op gericht moet zijn, meent de IBA. Een soortgelijke conclusie komt ook naar voren in het ‘Wolters Kluwer Future Ready Lawyer Rapport 2024’. Daarin staat dat iets meer dan de helft van de ondervraagden in de VS en Europa het gevoel heeft goed voorbereid te zijn om AI-technologie in te zetten – maar de andere helft dus niet. Ook opmerkelijk: slechts 28 procent van de juristen geeft aan dat ze AI begrijpen en bijna één op de vijf advocatenkantoren in de VS en Europa gebruikt helemaal geen GenAI.
Data en privacy
AI lijkt een race tegen de klok te hebben ingeluid waar ook de advocatuur niet aan ontkomt. Waar moet je beginnen als je geen groot budget hebt voor dure applicaties? Een eerste stap is volgens trainer Frank te Biesebeek, communicatietrainer en medeoprichter van LegalMike, op een laagdrempelige manier te starten met het gebruik van algemene GenAI-tools, zoals Copilot van Microsoft of ChatGPT van OpenAI. ‘Dat zijn algemene “instaptools” die zijn ontwikkeld voor de massa, maar dat laat onverlet dat deze tools je kunnen helpen bij uiteenlopende taken om het werk te versnellen en te verbeteren. AI-taalmachines zijn voor juristen wat rekenmachines zijn voor wiskundigen.’
Toch is het belangrijk niet te blijven hangen in de gratis versies van de tools, vervolgt Te Biesebeek. ‘We hebben inmiddels duizenden advocaten en juristen getraind en de praktijk is dat advocaten meestal een gratis account hebben aangemaakt bij bijvoorbeeld ChatGPT, maar er niet meer uithalen dan een samenvatting of een eenvoudige brief.’
Bijna niemand schaft een betaalde versie aan, is zijn ervaring. ‘Maar een betaalde versie is getraind op een grotere dataset, legt daardoor meer verbanden en geeft adequatere antwoorden. Bovendien is een betaalde variant veiliger. Je kunt in een betaalde versie bijvoorbeeld aangeven dat je niet wilt dat het model wordt getraind op basis van jouw invoer.’
Ander belangrijk punt zijn de data en de privacy. Te Biesebeek: ‘Wij adviseren altijd de input te pseudonimiseren, tenzij je honderd procent zeker weet dat jouw data niet met derden worden gedeeld. Ga vervolgens aan de slag met wat collega’s of, als je een eenpitter bent, met andere advocaten die je kent. Deel handige prompts waarbij je binnen een paar minuten tot een conceptdagvaarding of sommatiebrief kunt komen of om je leesbaarheid en spelling te beoordelen. Als je de basis onder de knie hebt, kan een volgende stap het gebruik van een specifieke juridische tool zijn.’
Hallucinaties
Generatieve AI (GenAI) werd gelanceerd in 2022 toen de wereld kennismaakte met ChatGPT. Het leidde tot een AI-revolutie omdat je sindsdien geen techneut meer hoeft te zijn om gebruik te maken van kunstmatige intelligentie. GenAI is een subcategorie van AI die zich specifiek richt op het creëren van nieuwe content uit bestaande data. Dit kunnen teksten zijn, maar ook afbeeldingen, muziek en zelfs video’s. Bekende voorbeelden van GenAI voor teksten zijn ChatGPT, Gemini van Google, Llama 2 van Meta en het onlangs gelanceerde Chinese DeepSeek.
Hoe handig tools ook zijn en hoe goed je de privacy ook afschermt, het gebruik is niet zonder gevaar. Henry Prakken is hoogleraar Artificial Intelligence and Law in het Departement Informatica aan de Universiteit Utrecht. Prakken is uitermate kritisch over de toepassingen van AI in het recht. ‘Wat me verbaast, is dat veel mensen wat naïef lijken te zijn in hun vertrouwen op AI-tools gebaseerd op zogeheten Large Language Models (LLM). Dat zijn modellen die zijn getraind op gigantische hoeveelheden online documenten. Chatbots genereren natuurlijke taal die er perfect uitziet op veel gebieden. Maar dat maakt het meteen ook misleidend. Ik denk dat veel mensen niet beseffen dat het een voorspeltechnologie is van het meest waarschijnlijke woord aan de hand hoe vaak woorden bij elkaar in de buurt staan. Dat leidt tot de zogeheten hallucinaties. Ik heb een keer getest op mezelf: volgens ChatGPT zou ik gepromoveerd zijn in Enschede, later werd dat Tilburg, terwijl het aan de VU in Amsterdam was.’
Volgens Prakken, die onderzoek doet naar manieren waarop AI-technologieën rechters, advocaten, officieren van justitie en rechtzoekenden kunnen ondersteunen, heeft GenAI ‘in de kern dus geen link met de waarheid en de werkelijkheid. Dat geldt ook voor Retrieval-Augmented Generation (RAG). Met RAG probeer je het taalmodel LLM te combineren met betrouwbare bronnen of specifieke datasets’. Denk bijvoorbeeld aan tools die gebruikmaken van informatie op wetten.nl of rechtspraak.nl (slechts een klein deel van alle uitspraken wordt gepubliceerd). Prakken: ‘Ook met RAG kom je nooit helemaal van hallucinaties af.’
De hoogleraar vindt het ‘onvoorstelbaar knap’ wat een chatbot met LLM en RAG kan. ‘Maar er blijven altijd subtiele vooroordelen en misinterpretatie in tools zitten. Voor een sinterklaasgedicht is dat niet echt een probleem, maar bij een inhoudelijk juridische tekst vind ik het riskant. Juist omdat kunstmatige intelligentie zelflerend is, kunnen vooroordelen zichzelf versterken. Er zijn verontrustende onderzoeken en voorbeelden van mensen met een donkere huidskleur die sneller worden beschuldigd van een strafbaar feit.’
Subtiele fouten
Om een chatbot te gebruiken, is het nodig een prompt te schrijven. Dat is een instructie of vraag aan een GenAI-model, waardoor het model tekst, beeld of andere output genereert. Prakken: ‘Wat we een Chain-of-Thought (CoT) prompting noemen, is een AI-techniek die een complex probleem opsplitst in deelproblemen met bijbehorende prompts. Zo zou je kunnen zien hoe de chatbot eerst alle deelproblemen beantwoordt en dan het totale probleem. Klinkt heel handig, maar wetenschappelijk onderzoek toont aan dat AI niet écht redeneert, maar patronen herkent en mogelijk vooringenomen antwoorden geeft.
Een experiment toonde aan dat ChatGPT, na herhaalde blootstelling aan een bepaald antwoord, dit automatisch als correct bestempelde zonder daadwerkelijk een logische redenering toe te passen. Dit is zorgwekkend want het betekent dat verborgen vooroordelen in de AI kunnen sluipen, wat de betrouwbaarheid en transparantie van AI-antwoorden beïnvloedt. Ook met juridische tools die zijn gefinetuned op specifieke datasets kun je dit probleem nooit helemaal wegkrijgen. In de huidige GenAI zit per definitie een foutmarge.’
Prakken maakt graag de vergelijking met een Excelsheet. ‘Als 95 procent van de vakjes goed is ingevuld en 5 procent niet, dan ontstaan er rekenfouten. En niet alle subtiele fouten zijn met het blote oog zichtbaar. Of de mens het dan gegarandeerd beter doet dan GenAI? Daar is weinig wetenschappelijk onderzoek naar gedaan. Er zijn testen geweest waarbij AI-taalmodellen een advocatenexamen voor de American Bar Association hebben gedaan. Het taalmodel slaagde, wat zeker indrukwekkend is te noemen.’
Doornbos en Te Biesebeek van LegalMike horen het vaker: is kunstmatige intelligentie wel bruikbaar en geschikt voor de gemiddelde advocaat? Doornbos: ‘Er blijven altijd blinde vlekken en je kunt niet alles met tools afdekken. Juristen moeten een kritisch denkvermogen hebben en informatie altijd controleren. Dat is een belangrijk onderdeel van het vak. Nu zoeken ze misschien via Google naar een uitspraak die ze bestuderen om te bepalen of die behulpzaam is of niet. Een AI-tool kan dit bronnenonderzoek vergemakkelijken en versnellen. AI is vooralsnog een hulpmiddel, nadrukkelijk geen vervanging. Net als bij zoeken via Google moet je ook bij een AI-tool informatie nog steeds controleren op juistheid en volledigheid. Je blijft als advocaat natuurlijk eindverantwoordelijk. Om het gekscherend te zeggen: A fool with a tool is still a fool.’
Automatiseren juridische taken
Volgens Te Biesebeek is er geen weg meer terug: ‘Als eenpitter denk je misschien: het zal mijn tijd wel duren. Ik zit in een niche, mijn cliënten zijn me trouw. Maar de vraag is of een cliënt nog wel een x-aantal uren wil betalen voor taken die de advocaat van de toekomst met bepaalde tools efficiënter en preciezer kan verrichten. Ik heb het niet over het persoonlijk contact met de cliënt of het strategische aspect van het werk, maar over juridische taken waarbij taal een grote rol speelt. Zo kun je met AI binnen enkele seconden bijvoorbeeld een uitgebreid contract of een dossier laten beoordelen.
We spraken onlangs een advocaat die een paar dagen bezig was geweest met uitzoeken of een bepaald transformatorhuisje in de Omgevingswet een vergunning nodig had. Dat kan veel sneller met de juiste AI-tool. De Amerikaanse investeringsbank Goldman Sachs voorspelde in 2023 dat GenAI bijna 44 procent van de juridische taken gaat automatiseren.’
Toekomstmuziek? Ondernemer Roman Markovski beschreef onlangs in een blog op Frankwatching.nl hoe hij een met behulp van ChatGPT een rechtszaak zou hebben gevoerd tegen ‘een overheidsinstantie die hij tuchtrechtelijk laakbaar’ achtte. Uit kostenbesparing en persoonlijke interesse in AI besloot Markovski geen advocaat in te schakelen en gebruikte hij ChatGPT voor onderzoek, pleitnotities en procesvoorbereiding. Door systematisch informatie te uploaden, argumenten te structureren en rollenspellen te oefenen, wist hij zich naar eigen zeggen effectief te weren tegen ervaren juridische tegenstanders. Markovski, zelf niet juridisch geschoold, zou ‘na twee zittingen en een hoger beroep’ in het gelijk zijn gesteld. Objectieve en verifieerbare informatie ontbreekt in de anekdote, die niettemin symbool kan staan voor de verwachtingen van AI.
‘De ontwikkelingen met kunstmatige intelligentie gaan razendsnel en hoe de wereld eruitziet over een jaar is niet te voorspellen,’ besluit hoogleraar Prakken. ‘De moraal van het verhaal is dat het een nieuw vakgebied is, waardoor er nog maar weinig wetenschappelijk onderzoek is gedaan naar de deugdelijkheid van GenAI-ondersteuning voor juristen. Ik was onlangs op een AI-congres waarbij een spreker zei: “AI in 2023 is ancient history.”

