Als ik een euro had gekregen voor elke keer dat iemand me dit jaar heeft gevraagd ‘moeten we niet ook iets met agents?’, had ik stilletjes met vervroegd pensioen kunnen gaan. Het woord staat op de agenda van elke bestuursvergadering, het FD staat er vol mee, consultants publiceren flashy rapporten, en bij vrijwel elke productupdate duikt het wel ergens op.
Die dynamiek (lees: hysterie) komt me bekend voor. Een paar jaar geleden ging dezelfde vraag over ‘blockchain’, daarvoor over ‘apps’. Ik herken dezelfde nerveuze haast, angst om de boot te missen, en hoop dat er ergens een kant-en-klare oplossing is.
Maar wat ís een agent eigenlijk, en minstens zo belangrijk, wat is het niet? Om bij het ongemakkelijke te beginnen: er is geen eenduidige definitie. Elke leverancier heeft een andere invulling, en marketingafdelingen plakken het label inmiddels op van alles. Wat vroeger een chatbot heette, heet nu een agent. Een automatisering? Een agent. Een scriptje dat onder de motorkap een vast stappenplan afwerkt: agent.
Er valt niettemin onderscheid te maken. Wat de meeste mensen een agent noemen, is in werkelijkheid een workflow: een vooraf uitgestippelde reeks stappen waar AI ergens in meedraait. Handig, vaak nuttig, maar niet wezenlijk anders dan wat we al jaren doen. ‘Echte’ agents zijn iets anders en zijn in de praktijk nog schaars. Bij een ‘echte’ agent bepaalt het systeem zelf welke stappen het neemt, kiest zelf welk hulpmiddel het daarbij inzet, en blijft dat doen totdat de taak is volbracht. Daarbij is van belang dat niet jij, de mens, de stappen hebt uitgestippeld. Het model bedenkt ze ter plekke.
Dat verschil is meer dan een semantische discussie. In een recent stuk schreef ik over hoe generieke AI’s als Claude de strijd aangaan met gespecialiseerde legal AI-platforms (als Legora en Harvey), en zich steeds nadrukkelijker in de juridische markt profileren. Wie de richting van die markt wil peilen, heeft er baat bij te snappen hoe agents werken en waaruit zij zijn opgebouwd.
Claude Code als voorbeeld
Een van de meest geavanceerde voorbeelden van echte agents in de praktijk is op dit moment Claude Code. Dat is de AI-assistent van Anthropic voor programmeurs, en wezenlijk meer dan het chatvenster dat we inmiddels allemaal kennen. In Claude Code geef je een opdracht (zoals ‘los dit probleem op’ of ‘verbeter deze functie’), en het systeem gaat aan de slag. Het leest bestanden, voert commando’s uit, past code aan, test of alles werkt, herstelt waar het spaak loopt, en meldt zich weer wanneer de opdracht is volbracht. Precies dat zelfstandige, zelfsturende gedrag onderscheidt een agent van een workflow.
De meeste van mijn collega-programmeurs, ikzelf incluis, doen inmiddels vooral twee dingen: dit soort systemen instrueren en hun werk controleren. We zijn in korte tijd eerst van piloot naar copiloot gegaan, en inmiddels naar luchtverkeersleider. Veel van de code die we vroeger zelf schreven, schrijft de agent nu voor ons.
Dezelfde aanpak duikt nu steeds meer op in andere beroepen. Claude Cowork is het ‘broertje’ van Claude Code voor kenniswerk, zoals juridisch werk. Je kunt er complexe taken aan uitbesteden, zoals het analyseren en opstellen van documenten. Begin dit jaar bracht Anthropic binnen Cowork ook een plugin uit voor juridisch werk, met commando’s als ‘/review-contract’. De trend wordt steeds duidelijker: wat bij programmeurs al de dagelijkse realiteit is, gaat ook bij juristen gebeuren.
Recent is de broncode van Claude Code uitgelekt. Die heb ik vanzelfsprekend met veel belangstelling helemaal doorgespit. Dat levert een veel gedetailleerder beeld op dan je normaal uit documentatie of marketingmateriaal kunt krijgen.
De beste manier om te begrijpen hoe agents werken, is te bespreken hoe Claude Code onder de motorkap werkt. Ik realiseer me dat dat technisch klinkt, maar wees gerust, ik doe mijn uiterste best het zo uit te leggen dat je er geen technische kennis voor nodig hebt.
Daarbij loop ik de vijf bouwstenen langs waaruit Claude Code is opgebouwd: de cyclus die alles aanstuurt, de hulpmiddelen waarmee het systeem iets in de ‘echte wereld’ voor elkaar krijgt, de toestemmingslaag die de grenzen bewaakt, het geheugen (dat altijd te klein is), en de mogelijkheid om werk uit te besteden aan zichzelf.
Maar eerst iets wat me daarbij opviel.
Het grootste deel is geen AI
Wat me het meest verbaasde, was hoe beperkt het deel broncode is dat zich daadwerkelijk met de AI bezighoudt. Het overgrote deel is doodgewone software: toestemmingsbeheer, foutafhandeling, geheugenbeheer en koppelingen met andere systemen.
Dat is een belangrijke constatering. Als bestuurders of consultants het hebben over ‘agentic AI’, klinkt het namelijk alsof de intelligentie van het taalmodel de doorslag geeft. In werkelijkheid zit de bruikbaarheid, betrouwbaarheid en veiligheid van zo’n systeem juist in alles eromheen. Daar worden de belangrijke keuzes gemaakt, en gaat het ook het vaakst fout.
De cyclus
Wat gebeurt er eigenlijk als je zo’n agent een opdracht geeft? Het is verrassend eenvoudig. Als je een instructie geeft (zoals ‘pas dit contract aan volgens onze standaard’) start het systeem een cyclus die zichzelf blijft herhalen totdat de opdracht voltooid is. Binnen die cyclus gebeurt telkens hetzelfde.
De opdracht, plus alle informatie (ook wel ‘context’) die tot dan toe is verzameld, gaat naar de AI, een taalmodel zoals ChatGPT of Claude. Het model geeft meteen antwoord, of het vraagt om een vervolgstap (‘lees eerst dit bestand’, ‘doorzoek de database’, ‘voer dit commando uit’). Geeft het meteen antwoord, dan is de cyclus afgelopen. Vraagt het om een vervolgstap, dan controleert het systeem of dat mag, voert het uit, voegt het resultaat toe aan de context, en begint de cyclus opnieuw.
Meer is het niet. En juist daar zit het onderscheid met een workflow: in een workflow heb jíj (of de leverancier) vooraf bepaald welke stappen worden gevolgd en wanneer de workflow klaar is. In een agent bepaalt het model dat ter plekke, op basis van wat er tot dan toe is gebeurd.
Hulpmiddelen: de handen van het systeem
Een taalmodel op zichzelf kan eigenlijk relatief weinig. Het produceert tekst, en daar houdt het op. Wat een agent tot een agent maakt, zijn de hulpmiddelen: de handen waarmee het model iets in de ‘echte wereld’ voor elkaar krijgt. Claude Code beschikt over ruim vijftig van zulke hulpmiddelen. Een bestand openen. Een bestand wijzigen. Een commando uitvoeren. Het web doorzoeken. Een extern systeem aanroepen (via het Model Context Protocol, waarover ik eerder schreef).
Voor advocatenkantoren is dit wellicht het interessantste onderdeel. De hulpmiddelen bepalen wat een agent daadwerkelijk kan. Geen koppeling met rechtsbronnen betekent geen mogelijkheid tot jurisprudentieonderzoek. Geen koppeling met het documentmanagementsysteem (DMS): geen inzicht in het dossier. De intelligentie zit in het model, de bruikbaarheid in het systeem eromheen.
Toestemming: de rem
Tussen de beslissing van het model en de daadwerkelijke uitvoering van een hulpmiddel zit een toestemmingsmechanisme. Claude Code heeft verschillende modi, variërend van ‘vraag altijd eerst toestemming’ tot ‘ga gewoon je gang’.
Dit is waar beleid, naleving en controle binnen zo’n systeem worden verankerd. Zeker voor juristen is dat een wezenlijk onderdeel. Zodra een kantoor een agent inzet, is de vraag ‘hoe is het toestemmingsmechanisme ingericht?’ minstens net zo belangrijk als ‘welk model zit erachter?’
Een belangrijke kanttekening: uit onderzoek van Anthropic (de maker van Claude) zelf blijkt dat nieuwe gebruikers ongeveer een vijfde van alle acties automatisch goedkeurt, terwijl dat bij ervaren gebruikers oploopt naar bijna de helft. De menselijke controle als ultieme waarborg is, zacht uitgedrukt, fragiel. En naarmate mensen vaker met zulke systemen werken, wordt die controle gaandeweg losser in plaats van strenger. Iets om in het achterhoofd te houden wanneer iemand zich vasthoudt aan het idee dat ‘de gebruiker altijd nog verantwoordelijk is voor de kwaliteit en veiligheid’.
Geheugen: het kladblok raakt vol
Een agent heeft geen onbeperkt geheugen. Alles wat het model ‘weet’ over een taak (de context) moet passen op een soort digitaal kladblok dat bij elke stap opnieuw wordt meegestuurd. Dat kladblok heeft een vaste capaciteit. Zodra het dreigt vol te raken, gaat het systeem opruimen: oudere aantekeningen worden ingekort, lange teksten samengevat, en als het echt niet meer past, zet het systeem een bondige samenvatting neer van alles tot dan toe, verwijdert de rest, en werkt daarmee verder.
Het resultaat blijft onontkoombaar: een agent vergeet dingen. Niet uit slordigheid, maar omdat het systeem niet anders kan. Voor lange, complexe zaken betekent dit dat je er niet blind op kunt vertrouwen dat alle eerder gemaakte keuzes en afspraken nog ongeschonden in het kladblok staan.
Subagents: uitbesteden aan zichzelf
Wordt een taak te complex, dan kan de hoofdagent een deel ervan uitbesteden aan een zogeheten subagent. Een soort stagiair met een afgebakende opdracht en een eigen, blanco kladblok. Die subagent werkt zelfstandig, komt uiteindelijk terug met een antwoord, en alleen dat antwoord wordt door de hoofdagent meegenomen. Al het tussenwerk verdwijnt daarna.
Klinkt bekend? Het lijkt sterk op hoe een partner werk delegeert aan een associate. Je geeft een briefing, je krijgt een resultaat, en je vertrouwt er (meestal) op dat het tussendoor goed is gegaan.
De juiste vervolgvragen
Terug naar de oorspronkelijke vraag. Wat is een agent?
Een agent is geen AI die ‘alles kan’, en zeker niet elk systeem dat tegenwoordig onder die vlag wordt verkocht. Het is een cyclus rondom een taalmodel, uitgebreid met hulpmiddelen, bewaakt door een toestemmingslaag, beperkt door het kladblok, en in staat om werk uit te besteden aan zichzelf. De AI zelf vormt maar een klein onderdeel van het geheel. De waarde, en de risico’s, zitten in het systeem eromheen.
Wanneer iemand een ‘agentic’ systeem aanbiedt, zou de eerste vraag moeten zijn: praten we over een echte agent, of over een workflow met een AI-sausje? Beide kunnen waardevol zijn, maar ze vragen om een totaal andere beoordeling. En als het om een echte agent gaat, is het vervolg minstens zo belangrijk: hoe zijn de hulpmiddelen, de toestemmingslaag en de geheugenlagen ingericht?
De concurrentie tussen aanbieders gaat de komende jaren denk ik steeds minder over welk model er gebruikt wordt (die convergeren snel), en steeds meer over hoe goed de rest is ontworpen. En als iemand je de volgende keer vraagt ‘moeten we niet ook iets met agents?’, hoop ik dat dit stuk je helpt om de juiste vervolgvragen te stellen. Bovendien is wat een ‘echte’ agent doet helemaal niet zo onbekend als het soms lijkt: hij kan delegeren aan zichzelf, maar iemand moet nog altijd beslissen welke hulpmiddelen er bestaan, welke toestemmingen gelden, en welk oordeel betrouwbaar genoeg is om op voort te bouwen. Dat werk lijkt verdacht veel op wat we altijd al deden.
