Waarom ChatGPT-wrappers niet werken voor juridisch onderzoek

Waarom ChatGPT-wrappers niet werken voor juridisch onderzoek

February 15, 2025

Waarom ChatGPT-wrappers niet werken voor juridisch onderzoek

Open ChatGPT. Stel een juridische vraag. Krijg een antwoord dat zelfverzekerd klinkt, goed leest, en volledig fout kan zijn.

Dat is het wrapper-probleem. Een verrassend aantal "juridische AI"-producten is precies dit: ChatGPT's API met een juridisch ogende interface. Ze voegen wat prompting toe, misschien wat templates, zeker wat marketing. Maar onderhuids is het een algemeen model dat algemene dingen doet.

Voor juridisch werk is dat niet goed genoeg.

Wat wrappers verkeerd doen

Geen bronverificatie. ChatGPT weet niet waar zijn informatie vandaan komt. Het is getraind op internettekst—deels accurate juridische content, deels verouderde blogposts, deels Amerikaans recht dat niet van toepassing is in jouw jurisdictie. Als je een vraag stelt, krijg je een synthese. Je krijgt geen citaties die je kunt verifiëren.

Geen temporeel bewustzijn. De kennis van het model heeft een afkapdatum. Recht verandert continu. Die uitspraak die goede autoriteit was in 2022 is misschien achterhaald. Die wettelijke bepaling is misschien gewijzigd. ChatGPT weet het niet en kan het niet controleren.

Zelfverzekerde fouten. Algemene taalmodellen zijn geoptimaliseerd om vloeiende, zelfverzekerd klinkende tekst te produceren. Als ze fout zitten over juridische vragen—en dat is vaak—zijn ze zelfverzekerd fout. De citatie ziet er echt uit. Het artikelnummer is correct opgemaakt. Het bestaat alleen niet.

Geen jurisdictionele precisie. Vraag ChatGPT over contractenrecht en je krijgt misschien UK-recht, US-recht, of een verwarde mix. Het model maakt niet vanzelf onderscheid tussen jurisdicties tenzij je extreem specifiek bent in je prompts—en zelfs dan is het niet betrouwbaar.

Wat er echt toe doet voor juridische AI

Iets nuttigs bouwen voor juridisch werk vereist meer dan een algemeen model prompten:

Geverifieerde juridische databases. Geen internettrainingsdata. Echte jurisprudentie, wetgeving en regelgeving uit autoritatieve bronnen. Bijgewerkt als het recht verandert. Gestructureerd zodat het systeem weet wat actueel is.

Meerstaps-redenering. Juridische vragen hebben zelden simpele antwoorden. Een nuttig systeem moet relevant recht vinden, controleren hoe rechtbanken het hebben geïnterpreteerd, verifiëren dat de precedenten nog goed zijn, en synthetiseren—met citaties bij elke stap.

Jurisdictie-bewustzijn. Het systeem moet weten dat het werkt in Nederlands recht, of Engels recht, of EU-recht dat overlapt met nationale implementatie. Niet als bijzaak, maar als kernonderdeel van hoe het redeneert.

Model-flexibiliteit. Jezelf vastleggen aan één AI-provider is een strategische fout. Modellen verbeteren. Nieuwe mogelijkheden ontstaan. Een systeem vastgekoppeld aan GPT-3.5 in 2023 ziet er verouderd uit in 2025. Wij draaien meerdere modellen, geselecteerd op basis van taakvereisten.

De diepte vs. breedte afweging

ChatGPT is ontworpen voor breedte. Het moet enigszins nuttig zijn voor iedereen—studenten, hobbyisten, casual gebruikers, professionals in elk vakgebied. Dat is een indrukwekkende technische prestatie, maar het betekent dat het model een generalist is by design.

Juridisch werk beloont diepte. Weten dat 6:74 BW tekortkoming in de nakoming regelt in Nederlandse contracten is niet genoeg. Je moet weten hoe rechtbanken het hebben toegepast, wat de bewijslastvereisten zijn, hoe het samenhangt met verjaringstermijnen, en wat er gebeurt in specifieke feitensituaties.

Een algemeen model heeft hier iets van gezien tijdens training. Een doelgebouwd juridisch systeem heeft het gestructureerd, geverifieerd en verbonden.

Wat wij anders doen

Andri roept niet een algemeen model aan en hoopt op het beste. De architectuur is specifiek gebouwd voor juridisch werk:

  • Alleen geverifieerde bronnen: Jurisprudentie uit officiële reporters, wetgeving uit overheidsbronnen, regelgeving uit autoritatieve databases
  • Meerfasige verificatie: Bevindingen worden gecontroleerd tegen huidig recht voordat ze worden gepresenteerd
  • Jurisdictionele context: Het systeem weet in welk rechtssysteem het opereert en redeneert dienovereenkomstig
  • Transparante citaties: Elke claim linkt naar een verifieerbare bron

Dit gaat niet over anti-ChatGPT zijn. De onderliggende modeltechnologie is indrukwekkend en nuttig. Maar het in een juridische interface wikkelen en het juridische AI noemen is niet genoeg. Het harde werk zit in al het andere.

Probeer het en zie het verschil.