Partnerbijdrage van

NOvA kondigt kantoorinspecties aan op AI-gebruik door advocaten

In 2026 start structureel toezicht op het gebruik van AI binnen de advocatuur. Wat ooit vooral innovatie was, wordt nu ook een compliancevraagstuk. Wat kunnen advocaten verwachten van inspecties, en hoe bereiden zij zich hierop voor?

Delen:

Toezicht op AI-gebruik door advocaten in 2026: dit kunnen kantoren verwachten

De inzet van artificiële intelligentie in de advocatuur neemt snel toe. Tegelijkertijd scherpt de NOvA het toezicht aan. Het College van Toezicht (CvT) kondigde op 13 januari 2026 aan dat dit jaar expliciet zal worden gecontroleerd op het veilige en zorgvuldige gebruik van juridische AI-tools.

Dat toezicht wordt uitgevoerd via de lokale dekens. Als richtsnoer geldt dat jaarlijks circa tien procent van de advocatenkantoren per arrondissement wordt betrokken bij kantooronderzoeken. Binnen die onderzoeken wordt AI-gebruik een afzonderlijk en herkenbaar aandachtspunt.

Voor de praktijk betekent dit dat AI niet langer uitsluitend een efficiëntiemiddel is, maar nadrukkelijk onderdeel wordt van het toezichtskader. Kantoren die AI gebruiken, zullen moeten kunnen aantonen dat zij dit doen in lijn met het beroepsgeheim, de AVG en de aanbevelingen van de NOvA.

Verwachte focus van de inspecties

De controles zullen naar verwachting aansluiten bij de AI-aanbevelingen van de NOvA van december 2025. Deze bieden concrete aanknopingspunten voor toezicht en maken inzichtelijk waar inspecteurs vermoedelijk het zwaartepunt leggen.

Centraal daarbij staan veiligheid, zorgvuldigheid en de bescherming van cliëntgegevens.

Praktische checklist voor advocatenkantoren

Op basis van de AI-aanbeveling van de NOvA kan men inspectie verwachten op onder andere de volgende direct toetsbare aandachtspunten:

1. Anonimisering en dataminimalisatie

Worden documenten vóór gebruik in AI-tools geanonimiseerd of gepseudonimiseerd? En wordt daadwerkelijk alleen strikt noodzakelijke informatie ingevoerd? Dit raakt rechtstreeks aan zowel het beroepsgeheim als de AVG.

2. Menselijke controle op AI-output

Is geborgd dat AI-output altijd inhoudelijk wordt gecontroleerd door een advocaat? En zijn er interne afspraken vastgelegd over verantwoordelijkheden en gebruiksgrenzen?

3. Toestemming en transparantie richting cliënten

Is vastgelegd of cliënten toestemming hebben gegeven voor het gebruik van AI? En is helder gecommuniceerd op welke wijze AI binnen het dossier wordt ingezet?

4. Inrichting van beveiliging en processen

Zijn er technische en organisatorische maatregelen getroffen om vertrouwelijkheid te waarborgen? Denk aan veilige opslag, toegangsbeheer, maar ook aan interne instructies en dossiervorming.

De standaard beveiligingsmaatregelen zijn niet voldoende

Veel aanbieders van juridische AI-tools beroepen zich op end-to-end-encryptie, Europese dataopslag, het niet trainen op klantdata en soms tweefactorauthenticatie. Dat zijn belangrijke basismaatregelen, maar ze lossen het kernprobleem niet op.

Zonder anonimisering of pseudonimisering blijven juridische documenten vertrouwelijke, herleidbare cliëntgegevens bevatten. Worden deze toch rechtstreeks door AI-systemen verwerkt, dan is sprake van een reëel risico op overtreding van de AVG en schending van het beroepsgeheim. Technische beveiliging alleen maakt het gebruik van dergelijke documenten dus nog niet verantwoord.

Hoe LegalPA hierbij kan ondersteunen

LegalPA is ontwikkeld vanuit precies deze toezicht- en compliancevraag. Het platform ondersteunt automatische anonimisering van juridische documenten, zodat vertrouwelijke informatie niet rechtstreeks in AI-systemen wordt verwerkt.

Daarmee wordt direct invulling gegeven aan een van de belangrijkste verwachte controlepunten. Waar bij veel andere tools de verantwoordelijkheid volledig bij de advocaat ligt om documenten handmatig op te schonen, is anonimisering bij LegalPA structureel ingebouwd. Dat verkleint risico’s en maakt verantwoord AI-gebruik praktisch uitvoerbaar.

In combinatie met alle gangbare beveiligingsmaatregelen helpt LegalPA kantoren om hun AI-gebruik aantoonbaar in te richten volgens de eisen die toezichthouders in 2026 waarschijnlijk zullen hanteren.

Delen:

LegalPA is dé leverancier van Nederlandse juridische AI-software. LegalPA is de énige Nederlandse aanbieder die automatisch alle juridische documenten eerst anonimiseert. Hierdoor voldoet élke…

Meer berichten van partner

Scroll naar boven