AI en het recht: Bart Custers over grondrechten en menselijke waardigheid

In de zomerreeks AI en het recht komt wekelijks een jurist aan het woord die zich bovengemiddeld bezighoudt met kunstmatige intelligentie in het juridische domein. Deze week: Bart Custers, hoogleraar Law & Data Science aan de Universiteit Leiden en directeur van eLaw, Centrum voor Recht en Digitale Technologie. “Veel van wat momenteel AI wordt genoemd, is helemaal geen AI.”

Delen:

AI en het recht: Bart Custers over grondrechten en menselijke waardigheid - Mr. Online

U publiceert al jarenlang veelvuldig over AI-gebruik door overheden en juristen, waarbij u regelmatig wijst op het risico dat AI-gebruik grondrechten van burgers onder druk kan zetten. Kunt u dat risico eens toelichten?
“AI wordt veel gebruikt om risicoprofielen op te stellen over mensen en geautomatiseerd besluiten over hen te nemen. Het nemen van beslissingen over mensen op basis van beschikbare gegevens kan problemen opleveren voor betrokkenen. Gegevens kunnen onjuist of incompleet zijn of er kunnen onjuiste conclusies worden getrokken. Kortom, het kan een eenzijdig beeld geven en de menselijke maat kan naar de achtergrond geraken. Beslissingen nemen over iemand op afstand, in plaats van dat iemand tegenover je zit, is laagdrempeliger voor de beslisser. Tegelijkertijd zijn de beslissingen veel minder transparant en lastiger ter discussie te stellen door degene die het betreft. Het oordelen over een digitaal dossier, in plaats van over mensen van vlees en bloed, zet menselijke waardigheid onder druk. Dit bleek nadrukkelijk in de Toeslagenaffaire. Daaraan gerelateerde risico’s zijn privacy-inbreuken, discriminerende besluitvorming, gebrek aan transparantie en gebrek aan materiële en procedurele rechtvaardigheid in een eerlijk proces. Ook die problemen hebben we allemaal teruggezien in de Toeslagenaffaire.”

Grote kantoren kunnen met behulp van AI-systemen nu al binnen mum van tijd duizenden stuks jurisprudentie doorploegen en er exact die informatie uithalen die ze nodig hebben om rechters van hun gelijk te overtuigen. Kun je daar als individuele advocaat, of als eenvoudige burger, nog wel tegenop?
“In complexe rechtszaken kan het ook nu al helpen een groot team van advocaten te hebben die een zaak kunnen voorbereiden en de relevante wetsartikelen en jurisprudentie kunnen doorploegen. AI-systemen kunnen deze zoek- en analyseprocessen enorm versnellen en verbeteren. Andere AI-systemen kunnen de argumenten in een pleidooi verder structureren en scherper formuleren. Weer andere AI-systemen kunnen voorspellingen doen over slagingskansen bij de rechter als wordt gekozen voor procederen. Veel mogelijkheden dus, maar wat als niet alle partijen over zulke middelen beschikken, omdat ze duur zijn en veel expertise vergen? Dan kan ongelijkheid ontstaan tussen procespartijen. Equality of arms in de rechtszaal is een belangrijk onderdeel van procedurele rechtvaardigheid en een eerlijk proces. Dit kan onder druk komen te staan.”

Systemen die puur op basis van data beslissingen nemen, kunnen ook discriminerend werken. Dat zagen we bijvoorbeeld bij de Toeslagenaffaire die u al noemde. Wat moet er in uw ogen gebeuren om te voorkomen dat we straks allerlei discriminerende AI-tools gebruiken?
“Eerst dachten we dat het weglaten van discriminatie-gevoelige gegevens uit datasets discriminerende patronen zou voorkomen. Immers, als er geen gegevens over bijvoorbeeld etniciteit bekend zijn, kan dit ook geen etnische profilering opleveren. Althans, dat dachten we, voordat we hier onderzoek naar gingen doen. Omdat etniciteit gecorreleerd kan zijn aan postcode, opleidingsniveau, inkomen of andere karakteristieken, leverden onze tools alsnog discriminerende patronen op, maar dan indirect discriminerend in plaats van expliciet. Dan ben je eigenlijk nog verder van huis, want dit is nog lastiger te detecteren. Verdiep je dus in zowel de tools als de uitkomsten en bekijk goed of er geen bias of discriminatie in verborgen zit. Gebruik een AI-tool pas als overtuigend is aangetoond dat deze niet discriminerend is. Momenteel wordt gewerkt aan discrimination-aware datamining, maar dat staat nog in de kinderschoenen.”

Vanuit cybersecurity-oogpunt wordt vaak gezegd dat het niet slim is om al je data op één plek te bewaren. Dat terwijl AI-systemen juist het meest effectief zijn als ze over zoveel mogelijk data kunnen beschikken, en je als kantoor daarvoor dus per definitie al je data naar één plek moet brengen. Hoe ga je daar als kantoor mee om?
“Voor echt goede AI-systemen heb je inderdaad heel veel data nodig en dat kan weer beveiligingsrisico’s opleveren. In het algemeen geldt: hoe meer data én hoe gevoeliger de data, des te beter de beveiliging moet zijn. Wees in elk geval alert op gebruik van AI-tools van grote techbedrijven, want vaak staat in de kleine lettertjes dat alle data die aan de systemen wordt gevoed, door hen mogen worden gebruikt. Een dossier over een rechtszaak uploaden kan dus een enorm risico zijn.”

Om het risico op het uitlekken van vertrouwelijke informatie te vermijden, wordt weleens geadviseerd om juridische input eerst te anonimiseren, voordat het in een AI-tool wordt gestopt. Hoe zinvol is dat wat u betreft?
“Anonimiseren heeft slechts beperkt meerwaarde. Veel AI-tools hebben toegang tot het internet en heel veel andere bronnen. Daardoor is het vaak eenvoudig om informatie te combineren en anonimisering op te heffen. Als rechtspraak.nl een geanonimiseerd arrest publiceert waarover in de media is geschreven, is het voor AI-tools een koud kunstje om dit aan elkaar te koppelen.”

Kunt u een concreet voorbeeld geven van een AI-tool die u zelf gebruikt?
“In mijn onderzoek maak ik regelmatig gebruik van ChatGPT en andere tools. Niet om teksten te genereren, maar om ideeën te genereren. Laatst vroeg ik ChatGPT welke van mijn publicaties nou eigenlijk een beetje impact hadden. De tool noemde vijf publicaties die geen van allen bestonden, maar wel allemaal leuke ideeën waren. Daar ga ik nog mee aan de slag.”

Heeft u zelf richtlijnen opgesteld voor het gebruik van AI in uw werk?
“In ons onderwijs worden we geconfronteerd met studenten die AI-tools zoals ChatGPT gebruiken voor hun opdrachten en scripties. Dat is niet per definitie verboden, zolang de studenten maar weten waarmee ze bezig zijn. Met fictieve wetsartikelen of arresten vallen ze natuurlijk door de mand, maar voor een concept-vertaling, spellingscheck, ontdubbeling of stroomlijning van een betoog kan het zeker helpen. Inmiddels hebben we ook digitale-vaardighedenonderwijs voor rechtenstudenten ontwikkeld, specifiek gericht op AI. Bovendien draaien we soms ons onderwijs om: dan laten we AI een tekst opstellen en studenten beoordelen wat ervan klopt. Dat zijn geen nieuwe richtlijnen, maar het is wel een nieuwe aanpak.”

Zijn er juridische kaders of regelgeving die u vindt ontbreken op dit moment?
“Het verzamelen en verwerken van persoonsgegevens is sterk gereguleerd via de AVG, maar er zijn slechts weinig regels voor data-analyses. De AI-verordening is hier wel op gericht, maar daar moeten we niet te veel van verwachten. Een voorbeeld hiervan is de manier waarop de AI-verordening deepfakes en deepnudes reguleert: volgens de AI-verordening zijn dit beperkte risico’s en is een transparantieverplichting (deepfakes labelen als zodanig) voldoende. Echter, we weten inmiddels er grote zeer risico’s zijn, bijvoorbeeld wanneer deepfakes worden gebruikt om democratische verkiezingen te manipuleren. Slachtoffers van deepnudes kunnen naast reputatieschade last hebben van langdurige psychologische klachten, waaronder angststoornissen, spanningsklachten, depressie, PTSS en suïcidale gedachten. Dat zijn geen beperkte risico’s. Met name deepnudes zouden gewoon verboden moeten worden en strafbaar moeten zijn.”

Welk advies zou u geven aan juristen die AI willen gaan gebruiken?
“Ten eerste: AI is momenteel een hype. Veel van wat AI wordt genoemd, is helemaal geen AI, maar gewoon min of meer traditionele data-analyse. Regelmatig is het window dressing of een oplossing waarbij nog een probleem moet worden gezocht. Laat je niet gek maken. Juristen doen er goed aan de focus te houden op gedegen juridisch advies- en uitzoekwerk.
Ten tweede: AI is gereedschap. Net als een rekenmachine kan helpen bij wiskunde, zo kan AI helpen bij bepaald juridisch werk. Maar een rekenmachine lost geen problemen in de hogere wiskunde op. Net zomin gaat ChatGPT of een andere tool alle juridische problemen oplossen of juristen vervangen. Voor sommige juridische problemen kunnen AI-tools helpen, voor andere niet. Als je weet wanneer je AI wel en juist niet moet gebruiken en wat de voor- en nadelen van bepaalde AI-tools zijn, kun je de juiste keuzes maken en een voorsprong nemen op anderen.”

AI en het Recht is een achtdelige serie die deze zomer elke vrijdag verschijnt op Mr. Online.

Eerder in deze rubriek:
Katja van Kranenburg (CMS) over transparantie over AI-inzet
Elgar Weijtmans (HVG Law) over experimenteren en kennis delen
Mark Zijlstra (ICTRecht) over training en dataselectie
Martin Woodward (Randstad) over efficiëntie en de kritische blik
Sarah Zadeh (Zadeh Legal) over ‘responsible AI’ en verantwoording afleggen
Loïs Snel (Blindfold) over enthousiasme en kernwaarden

Wilt u vanaf nu elke week een samenvatting van al het nieuws van Mr. in uw mailbox? Klik hier

Delen:

Het belangrijkste nieuws wekelijks in uw inbox?

Abonneer u op de Mr. nieuwsbrief: elke dinsdag rond de lunch een update van het nieuws van de afgelopen week, de laatste loopbaanwijzigingen en de recentste vacatures. Meld u direct aan en ontvang elke dinsdag de Mr. nieuwsbrief.

Scroll naar boven