Geen dik handboek, wel duidelijke keuzes
Een AI-beleid hoeft geen dik handboek te zijn. In de kern gaat het om het expliciet maken van keuzes die in de praktijk toch al worden gemaakt. Wie mag AI gebruiken, voor welke werkzaamheden, met welke gegevens en onder welke verantwoordelijkheid? Door deze vragen vooraf te beantwoorden, voorkomt een kantoor ad-hoc beslissingen, interne discussie achteraf en – belangrijker – risico’s op het gebied van vertrouwelijkheid en beroepsethiek.
De rol van AI: ondersteunend, niet beslissend
In de praktijk blijkt dat veel kantoren AI vooral inzetten voor ondersteunende werkzaamheden: het structureren van dossiers, het samenvatten van stukken, het herschrijven van conceptteksten of het verkennen van juridische invalshoeken. Dat gebruik is op zichzelf niet problematisch, mits duidelijk is vastgelegd dat AI nooit zelfstandig juridisch advies geeft en dat de advocaat altijd eindverantwoordelijk blijft voor de inhoud. Een goed AI-beleid bevestigt dit uitgangspunt expliciet en maakt het daarmee ook intern bespreekbaar.
Omgang met vertrouwelijke en privacygevoelige gegevens
Een tweede punt van belang is omgang met gegevens. Advocaten werken met vertrouwelijke en vaak privacygevoelige informatie. Een AI-beleid moet daarom concreet benoemen welke gegevens wel en niet in AI-systemen mogen worden verwerkt. In de praktijk kiezen steeds meer kantoren ervoor om alleen AI-oplossingen toe te staan die werken met versleuteling en automatische anonimisering, zodat persoonsgegevens en herleidbare cliëntinformatie niet ongecontroleerd worden verwerkt. Door dit expliciet vast te leggen, ontstaat een duidelijke norm voor alle medewerkers, van advocaat-stagiair tot secretaresse.
Transparantie richting cliënten
Ook richting cliënten biedt een AI-beleid houvast. Cliënten hoeven niet te vrezen dat hun zaak ‘door een computer wordt gedaan’, maar mogen wel verwachten dat moderne technologie zorgvuldig wordt ingezet. Door in het beleid op te nemen dat AI uitsluitend wordt gebruikt als ondersteunend hulpmiddel en dat vertrouwelijkheid en kwaliteit leidend blijven, kan een kantoor dit desgewenst ook transparant communiceren.
Voorbeeld van een werkbaar beleid in de praktijk
Hoe ziet zo’n beleid er concreet uit? Onderstaand fragment is een voorbeeld van hoe een kantoor dit in begrijpelijke en werkbare bewoordingen kan vastleggen, zonder juridisch jargon of overbodige abstracties: “Binnen ons kantoor wordt gebruikgemaakt van AI-toepassingen ter ondersteuning van juridische werkzaamheden, zoals het analyseren, structureren en herschrijven van documenten. AI-systemen worden nooit gebruikt voor het zelfstandig geven van juridisch advies of het nemen van beslissingen. De behandelend advocaat blijft te allen tijde verantwoordelijk voor de inhoud, beoordeling en verzending van stukken. Bij het gebruik van AI worden uitsluitend systemen ingezet die voldoen aan de geldende eisen op het gebied van vertrouwelijkheid en gegevensbescherming. Persoonsgegevens en andere herleidbare cliëntinformatie worden niet ongeanonimiseerd verwerkt. Medewerkers zijn verplicht om output van AI kritisch te beoordelen en te verifiëren voordat deze in een dossier of richting de cliënt wordt gebruikt.”
Duidelijkheid als basis voor verantwoord innoveren
Wat dit voorbeeld laat zien, is dat een goed AI-beleid vooral duidelijkheid schept. Het geeft medewerkers richting, biedt cliënten geruststelling en helpt het kantoor om verantwoord te innoveren zonder telkens opnieuw het wiel uit te vinden. Juist omdat AI zich snel ontwikkelt, is het verstandig het beleid niet te gedetailleerd te maken, maar wel helder in uitgangspunten en verantwoordelijkheden.
AI-beleid als voorwaarde voor duurzame inzet
Voor advocatenkantoren geldt daarbij hetzelfde als voor hun cliënten: risico’s worden beheersbaar zodra ze expliciet worden benoemd. Een praktisch AI-beleid is geen rem op innovatie, maar een voorwaarde om AI duurzaam en professioneel in te zetten binnen de advocatuurlijke praktijk.
Auteur: mr. Ernst Bökenkamp, LegalPA
