Robots, mensenwerk, rechterswerk

Delen:

Het Ministerie van Veiligheid en Justitie hield in maart een kennisbijeenkomst over kunstmatige intelligentie. Samen met Linda Kool van het Rathenau Instituut mocht ik met de zaal nadenken over kunstmatige intelligentie en de betekenis daarvan voor het werk van de mens in het algemeen, en van de rechter in het bijzonder. Nu Jaap van den Herik in Mr Magazine de juristerij oproept kunstmatige intelligentie te omarmen, loont het om daar weer eens wat meer in detail naar te kijken en een paar adviezen ter harte te nemen.

Slimme en domme machines

Deep learning, zoals slimme machines dat kunnen, worden mogelijk door de groei van de rekenkracht van onze computers en de enorme hoeveelheid trainingsdata die er zijn. Machines kunnen gezichtsherkenning leren met het materiaal van  Facebook. De ervaring leert dat ze daar niet alleen goede dingen van leren: ze herkennen zwarte gezichten soms als gorilla’s, en ze leren ook schelden van hatemail en hatelijke tweets.

Er zijn ook domme machines, zoals de lopende band die in sommige sushirestaurants de sushi serveert. In dit voorbeeld wordt duidelijk hoe mensen omgevingen scheppen waarin bepaalde technologieën passen, en wat taken van de mens over kunnen nemen.
Omstreeks 1980 zijn machines ook kennistaken over gaan nemen, zoals beslissingen ondersteunen. Rechters in de VS gebruiken een systeem dat voorspellingen levert over de recidivekans van verdachten. Intussen is gebleken dat dit systeem de recidivekans van zwarte verdachten bij een gelijk strafblad veel hoger inschat dan bij blanke verdachten.

Deze ontwikkeling levert nieuwe vragen op:
Bij beslisondersteuning neemt de mens zelf de beslissing, hij of zij is 100% in controle: welke data gebruikt het systeem, en welke informatie geeft het als output? Is de validiteit van het proces getest? Komt het ene systeem tot een andere uitkomst dan een ander systeem? Hoe leidend is de output van de machine in het menselijke oordeel?
Is daarentegen de machine 100% in controle en neemt deze dus zelf de beslissing, dan doemen er andere vragen op. Doet de machine bepaalde taken, en welke zijn dat? Zijn ze overzichtelijk, hebben ze een hoge mate van routine en standaardisatie? Hoe krijgen principes als objectiviteit, menselijkheid, transparantie en afleggen van verantwoording vorm? Vinden we dit wenselijk? Deze mate van machinecontrole kan geleidelijk ontstaan. In deze ontwikkeling wordt het technisch ontwerp leidend, wetgeving is dan een afgeleide. Of liever: Code is Law, techniek en wet gaan samenvallen. Een ander voorbeeld is technoregulering, waarin de techniek de regels uitvoert: het alcoholslot of de ov chip-poortjes.

Kunstmatige intelligentie in het juridische domein

Ook hier zijn er ook al voorbeelden te zien.
Donotpay.com, dat het terugvragen van parkeerboetes ondersteunt, en in Engeland ook al het claimen van compensatie bij vluchtvertraging.
Magontslag, dat de gebruikers adviseert over de kansen bij ontslag.
Rechtwijzer uit elkaar, dat stellen die uit elkaar willen helpt met een scheidingsplan.
De Solution Explorer van Het Civil Resolution Tribunal in British Columbia, dat de gebruikers helpt zijn probleem te analyseren en passende oplossingen te kiezen.

Bij een rechterlijke procedure is de onzekerheid van de uitkomst voor procespartijen en ook voor de samenleving als geheel een risico. De meerderheid van de zaken die in de rechtspraak behandeld worden hebben een tamelijk voorspelbare uitkomst. Daar zijn dus kansen voor automatiseren.

Om bij minder voorspelbare geschillen het procesrisico beter in te schatten worden er allerlei vormen van voorspellen en beslissing ondersteunen ontwikkeld en aangeboden.
Daniel Katz c.s. voorspellen de uitkomst van zaken bij het Supreme Court of the United States (Scotus), met een nauwkeurigheid van minder dan 80%. Lex Machina voorspelt de uitkomst van patentzaken. Ravellaw.com biedt, tegen verschillende tarieven, research tools, legal analytics, data services en rechtersprofielen. Uitgangspunt bij al deze systemen is dat de beslissingen uit het verleden die de bestanden vullen juist zijn. De systemen worden vooral gebruikt aangeprezen als wapens om je zaak mee te winnen. Ze worden, mede door de hoge prijzen, vooral gebruikt door grote advocatenkantoren.
In Europa hebben onderzoekers een systeem ontwikkeld dat de uitkomst van beslissingen van het Europees Hof voor de Rechten van de Mens kan voorspellen met een nauwkeurigheid van 79%. Die uitspraken hebben een vaste structuur: omstandigheden, regels, beoordeling, uitkomst. Ze analyseren gewone taal, vooral op het vóórkomen van woordgroepen en onderwerpen. De onderzoekers stelden vast dat de uitkomst in belangrijke mate wordt bepaald door de feiten.

Er valt nog veel meer over te zeggen, lees daarvoor ook mijn oudere blogs. Toch blijf ik zitten met een paar vragen. Wat doet Scotus nu Scalia er niet meer is? Maakt dat uit voor de voorspellingen? En is 80% nauwkeurigheid genoeg? Waarvoor?
Technologie is geen vaststaand gegeven, het krijgt vorm in alle dagelijkse praktijken. Wij bepalen wat we met de technologie willen doen. We kunnen manieren ontwikkelen om vooroordelen te meten, kwaliteit van data, combinaties, inferenties en om transparantie in te bouwen. Transparantie en verantwoording zijn essentieel voor verantwoorde inzet van slimme technologie. Het Europees Parlement maakte daar een rapport over.

Delen:

Het belangrijkste nieuws wekelijks in uw inbox?

Abonneer u op de Mr. nieuwsbrief: elke dinsdag rond de lunch een update van het nieuws van de afgelopen week, de laatste loopbaanwijzigingen en de recentste vacatures. Meld u direct aan en ontvang elke dinsdag de Mr. nieuwsbrief.

Scroll naar boven