Microsoft Copilot vs. Andri: de stewardess en de piloot

Microsoft Copilot vs. Andri: de stewardess en de piloot

14 april 2026

Microsoft Copilot vs. Andri: de stewardess en de piloot

Bij de meeste kantoren waar we binnenlopen staat Copilot al aan. Het zat in de licentie, iemand van ICT heeft het aangezet, en tegen de tijd dat wij aanschuiven is er meestal wel een partner die er een mail mee heeft opgepoetst en het daarmee, vaag gevoel, beschouwt als "onze AI." Dat is een redelijk beginpunt. Het is ook waar een hoop verwarring begint.

Want vervolgens, onvermijdelijk, vraagt diezelfde partner iets over een verjaringstermijn. Of of een clausule in een aandeelhoudersovereenkomst stand houdt. Of om een ontslagbrief op te stellen. En omdat Copilot daar in het Word-lint klaar staat, vriendelijk en zelfverzekerd en al ingelogd, geeft het gewoon antwoord.

Daar gaat dit stuk over. Niet of Copilot nuttig is (dat is het evident) maar waar het eigenlijk voor gemaakt is.

Een goede stewardess is geen piloot

Op een lange vlucht is de stewardess de reden dat de cabine werkt. Ze weet waar de spuugzakken zitten, hoelang het nog duurt tot Amsterdam, welke passagier een vegetarische maaltijd heeft. Je zou het direct merken als ze er niet was.

Niemand met gezond verstand vraagt haar om het vliegtuig te besturen.

Dat is eigenlijk waar het op neerkomt. Copilot is heel goed in de cabine: je inbox, je agenda, je presentaties, je SharePoint. De advocatuur is de cockpit, met andere instrumenten, andere training, en behoorlijk andere gevolgen als het misgaat. Dat is geen sneer richting Copilot. Het is gewoon een ander vak.

Wat Copilot eigenlijk is

Als je de enterprise-branding eraf trekt is Copilot een consumer AI-product, dezelfde GPT-klasse modellen die onder ChatGPT zitten, aangesloten op de Microsoft Graph. De Graph is hoe Microsoft alles binnen je tenant noemt: Outlook, OneDrive, SharePoint, Teams, je agenda. Het slimme zit in de grondingslaag. Copilot kan je bestanden en je mails zien en meenemen in het antwoord.

Voor het meeste kenniswerk is dat een verstandig idee. Een assistent die weet wie je dinsdag hebt gemaild en wat er in de bijlage stond, is meer waard dan een die dat niet weet, en Microsoft heeft serieus engineeringwerk gestoken in die grondingslaag.

De vraag is wat er in die grondingslaag zit en wat er niet in zit.

Erbinnen: je mailbox, je Teams-chats, je OneDrive, je SharePoint. Prima voor het samenvatten van een vergadering. Waardeloos voor een verjaringsvraag.

Erbuiten: wet- en regelgeving, jurisprudentie, de Staatscourant, EUR-Lex, het handelsregister als gestructureerde data, het Kadaster, AFM-leidraden, vindplaatsen, paragraafnummers, of een uitspraak nog geldend recht is, jurisdictietags. Dat zit nergens in de Graph. Het komt er ook niet in de buurt.

Copilot is gebouwd om te redeneren over de inhoud van je mailbox. Een juridisch AI-platform moet kunnen redeneren over het recht waarop je advies rust. Dat zijn niet dezelfde databases en het is niet hetzelfde product.

De aantrekkingskracht van "goed genoeg"

De eerlijke reden dat Copilot wordt ingezet voor juridisch werk is niet dat het briljant is in recht. Het is dat het er al is. Je zit toch al in Word, je betaalt er toch al voor, en voor misschien zeven van de tien vragen die je erin typt komt er iets uit dat er ongeveer goed uitziet. Een redelijk klinkende alinea. Een zelfverzekerde samenvatting. Proza met de cadans van een tweedejaars stagiaire.

Daar zit precies de val. "Ziet er ongeveer goed uit" is waar general-purpose modellen op zijn geoptimaliseerd, omdat ze zijn getraind om behulpzaam te klínken. Juridisch werk heeft iets anders nodig. Het moet kloppen, en je moet ernaar kunnen verwijzen. In een Word-document zie je het verschil niet. In een processtuk des te meer.

Twee concrete voorbeelden uit onze eigen tests. Vraag Copilot naar een specifiek artikel uit het Burgerlijk Wetboek en het antwoord is meestal samenhangend op het niveau van een eerstejaars-samenvatting, maar het heeft geen manier om het antwoord te gronden in de actuele, gezaghebbende tekst, omdat de Graph van de tenant het BW niet bevat. Dus parafraseert het uit pretraining, en dat drift. Dat is geen model-kwaliteitsprobleem; het is een groundingsprobleem. Geen enkele hoeveelheid beter redeneren lost een systeem op dat niet kijkt naar het artikel waarover het praat. Of vraag of een recente uitspraak van de Hoge Raad nog geldend recht is en het zal de zaak vrolijk voor je samenvatten. Het zal niet vermelden dat de uitspraak drie maanden later is genuanceerd door een vervolgarrest, omdat "is dit nog geldend recht" geen eersteklas concept is in een general model; dat is iets waar een juridisch platform expliciet omheen gebouwd moet worden.

Een general model ziet tekst. Een juridisch platform moet recht zien.

Bundeling is niet de boeman

Er bestaat een redenering die Copilot een soort trojaans paard noemt, alsof Microsoft stiekem een consumer-AI duwt in professioneel werk waar het niet thuishoort. Dat kopen we niet. Copilot meeleveren in M365 is gewoon verstandige productstrategie, en voor de meeste Office-gebruikers is het een cadeau. Als je dag voornamelijk uit Outlook en PowerPoint bestaat, is het een duidelijke verbetering.

Het smallere probleem, en dat is voor kantoren wel het echte probleem, is dat een bundel een default creëert. Copilot heeft geen idee dat het met een advocaat praat over een cliëntdossier. Het heeft geen idee dat het document dat op het scherm staat een getuigenverklaring is die onder het beroepsgeheim valt. Het is niet ontworpen om dat te weten. Het is ontworpen om iedereen een beetje te helpen, en dat is een wezenlijk andere opdracht dan een gereglementeerd beroep vééél helpen. Dat is geen kwaadwilligheid, dat is scope. En scope is voor juridisch werk juist het hele punt.

Onze stille opvatting is dat Copilot op kantoor rondloopt met een badge op, hopend dat niemand iets vraagt waar het niet voor gemaakt is. Meestal vraagt niemand dat. Af en toe zou iemand dat wel moeten doen.

Wat een juridisch platform écht moet kunnen

We krijgen regelmatig de vraag waar het verschil nu precies in zit. Het is niet het model. Het is vrijwel nooit het model. Het zijn de tien andere dingen die een juridische tool moet doen waar een productiviteitsassistent nooit voor ontworpen is.

Zaken, geen chats. In Copilot is elk gesprek een verse sessie bovenop je Graph. In Andri hoort elke interactie bij een zaak: het dossier, de correspondentie, de geschiedenis, eerdere concepten. Je legt niet elke ochtend opnieuw uit waar het om gaat. Het staat er gewoon.

Echte juridische bronnen. Andri is aangesloten op rechtspraak, wet- en regelgeving, de Staatscourant, EUR-Lex, het handelsregister en het Kadaster. Elk antwoord is te herleiden naar iets dat je in een processtuk kunt zetten. Copilot gebruikt je tenant en, als het daarbuiten gaat kijken, Bing-zoekresultaten. Dat is geen fundament om juridisch advies op te baseren.

Vindplaatsen die daadwerkelijk kloppen. Juiste vindplaats, juiste paragraaf, juiste instantie, juist jaartal. General models produceren verwijzingen die er goed uitzien en vaak subtiel verkeerd zijn, zoals een echte zaak met het verkeerde paragraafnummer, of een gehallucineerde uitspraak die leest als een echte. Dat eruit vissen is eigenlijk de hele baan, en een consumer-assistent is daar niet voor gebouwd.

Tijd en jurisdictie als eersteklas begrippen. Recht verandert, en Engels contractenrecht is geen Nederlands contractenrecht. In een general model zijn "wanneer" en "waar" ongeveer wat de trainingsdata toevallig heeft opgeslagen. In een juridisch platform zijn het structurele velden.

Productieflows per rechtsgebied. Een huurrechtzaak, een arbeidsgeschil, een bestuursrechtelijke procedure: elk heeft andere stukken en een andere structuur. Er is geen "schrijf mij een document"-knop die dat allemaal dekt.

Verschillende modellen voor verschillend werk. Wij gebruiken er meerdere, omdat redeneren over een zaak en een dossier samenvatten niet hetzelfde zijn. Als er een beter model uitkomt, draaien onze klanten er binnen een dag of twee op, nadat het door een evaluatieset is gekomen die we samen met advocaten hebben gebouwd. Copilot draait op wat Microsoft deze week voor dat oppervlak heeft aangesloten.

Dingen waar een advocaat om vraagt. Een getuigengesprek laten transcriberen het dossier in. EXIF-data uit een foto trekken voor een forensische vraag. Een XAF van de accountant inlezen. Dat zijn geen exotische verzoeken, dat is wat er op een dinsdagmiddag binnenkomt. En het staat niet op de Copilot-roadmap, omdat het geen consumer-productiviteitsfeatures zijn.

De datavraag, eerlijk

Laten we hier ook eerlijk zijn. Copilot's dataverhaal is beter dan dat van consumer-ChatGPT. Onder Microsofts enterprise-licenties wordt je input niet gebruikt om hun foundation-modellen te trainen, en de tenantgrens is reëel. Dat is betekenisvol, en daarom kunnen de kantoren waarmee we werken Copilot prima gebruiken voor niet-juridisch werk zonder daar wakker van te liggen.

Maar het blijft een general-purpose tool op een general-purpose cloudcontract. Er is geen juridisch specifieke verwerkersovereenkomst. Er is nergens in de stack een concept van "dit document valt onder het beroepsgeheim en mag nooit per ongeluk trainingscontext worden." Je erft een contract dat geschreven is om te passen bij elke Microsoft-klant van supermarkt tot rederij, en je vraagt het werk te doen waar een juridisch specifieke verwerkersovereenkomst voor is.

Voor marketing is dat prima. Voor een advocatenkantoor is het dunner dan het zou moeten zijn. In ons stuk over ChatGPT vs. een juridisch platform schreven we over de bredere vorm hiervan, en in februari maakte de uitspraak in United States v. Heppner de concrete variant uncomfortably duidelijk: documenten die zijn opgesteld met consumer AI-tools vallen mogelijk niet onder het beroepsgeheim. Copilot zit op dat spectrum niet op dezelfde plek als gratis ChatGPT. Het zit er wel dichter tegenaan dan de meeste kantoren zich realiseren.

Waar Copilot wél goed in is

Dit niet zeggen zou oneerlijk zijn, want er is behoorlijk wat van. Binnen een advocatenkantoor verdient Copilot zijn plek met precies dat waar het voor gemaakt is:

  • Lange maildraden samenvatten zodat je op maandagochtend je inbox kunt wegwerken.
  • Het niet-privileged, niet-cliëntgerichte werk zoals interne memo's, vergaderagenda's, updates aan de maten, partnerretraite-decks.
  • Een PowerPoint opschonen die een stagiair snel in elkaar heeft gezet.
  • Een interne Teams-call transcriberen waar niemand ooit beroepsgeheim op zou claimen.
  • Finance, operations en marketing meetbaar sneller maken.
  • "Waar had ik dat ook alweer opgeslagen?"-vragen beantwoorden over SharePoint en OneDrive.

Een kantoor dat Copilot goed inzet voor administratief werk en een echt juridisch platform inzet voor juridisch werk zit wat ons betreft precies op de goede plek. De fout is niet Copilot gebruiken. De fout is denken dat het, omdat het in hetzelfde lint zit als al het andere, ook al het andere kan.

Snelle, goedkope inferentie is een feature

Credits aan Microsoft voor één ding: ze zijn opmerkelijk goed in het op grote schaal, goedkoop, leveren van AI-inferentie binnen software die mensen toch al elke dag openen. Dat is een echt wapenfeit, en het is grotendeels waarom Copilot overal is. Voor "maak deze mail dertig procent korter" of "zet deze vergadering van 45 minuten om in vijf bullets" is snelle goedkope inferentie direct in het document precies het juiste product.

Juridisch werk schaalt niet op dezelfde manier. Een fout antwoord van vijf euro over een verjaringstermijn kan een kantoor een zevencijferige claim kosten, en geen hoeveelheid goedkope inferentie repareert dat. De economie van juridische AI gaat niet over marginale kosten naar nul duwen. Ze gaat over het kloppend hebben, met bronnen, op werk waar fout zijn een onverzekerbaar beroepsrisico is. Ander product. Andere kwaliteitsnorm. Iets anders, eigenlijk.

Microsoft heeft overigens zelf nooit echt beweerd dat Copilot dát is. De categorie gespecialiseerde juridische AI bestaat omdat juridisch werk een tool verdient die daarvoor gebouwd is, en niet iedereen bouwt die tool.

Als je er nog nooit een van dichtbij hebt gezien

De meeste advocaten die we onboarden hebben ChatGPT geprobeerd. Veel hebben Copilot geprobeerd. Een veel kleinere groep heeft ooit achter een echt juridisch AI-platform gezeten, met echte zaken, echte stukken, echte vindplaatsen. Als dat jij bent, kun je het verschil eerlijk gezegd niet voelen uit een blogpost. Je moet het zien bewegen.

Dus probeer dit. Pak een zaak die je kent. Iets waarvan je het goede antwoord en het foute antwoord uit je hoofd weet. Stel Copilot de vraag in Word. Stel Andri dezelfde vraag in Andri. Kijk wat elk doet met alles eromheen: het dossier, de stukken, de eerdere concepten, de bronnen, de export. Of dit dezelfde soort tool is, merk je meestal binnen een minuut of tien.

Dat is de vergelijking die we kantoren willen laten maken. Niet Copilot vs. Andri op een marketingpagina. Copilot vs. Andri op je volgende echte zaak.

Probeer het zelf of neem contact op. We laten het je graag zien, op jouw werk, niet op dat van ons.


Lees ook: ChatGPT vs. een juridisch AI-platform, wat agentische AI precies betekent in de advocatuur, waarom diepgang in redeneren het verschil maakt, en hoe wij beveiliging aanpakken bij Andri.