In Gelderland zijn twee advocaten door de deken verplicht op een cursus verantwoord gebruik van kunstmatige intelligentie (AI) gestuurd. Ze hadden ChatGPT gevraagd om stukken te schrijven, en deze zonder ze te controleren ingediend. In de stukken werd verwezen naar niet bestaande zaken. Het is niet de eerste keer dat taalmodellen (LLM's) de Nederlandse rechtszaal inkwamen.
De advocaten die deze stukken indienden bespaarden zichzelf werk, maar het weerleggen van deze foutieve verwijzingen kostte de advocaten van de tegenpartij juist extra tijd. En niet alleen advocaten maken gebruik van ChatGPT. In een uitspraak gedaan op 7 juni 2024 in een zaak over zonnepanelen gaf de kantonrechter meerdere keren aan dat ChatGPT geraadpleegd was om de uitspraak te onderbouwen. Bij de rechtbank in Den Bosch probeerde een man een verkoop van een appartement te blokkeren door vertegenwoordiging door een advocaat over te slaan en argumenten die voor hem door ChatGPT geschreven waren aan te dragen. In beide gevallen leidde het tot veel kritiek.
Ook het gebruik van ChatGPT ter ondersteuning van in de rechtbank gemaakte argumenten lijkt nog weinig zoden aan de dijk te zetten. In een zaak in Limburg zette het bedrijf Aleto een taxatierapport geschreven door ChatGPT in. De rechter weigerde echter dit rapport mee te nemen in de uitspraak, op basis van een eerder oordeel van de Raad van State. Hierin werd gesteld dat taxatierapporten door deskundigen moeten worden opgesteld. Het begrip deskundige heeft een duidelijke definitie binnen het bestuursrecht, en ChatGPT voldoet hier niet aan.
Inherente problemen
Bij het gebruik van LLM’s in de rechtspraak komen een aantal problemen krijgen die inherent zijn aan de technologie. Het citeren van niet bestaande stukken is een vorm van hallucineren, een zo vaak terugkerend probleem bij het gebruik van generatieve AI dat het in 2025 werd uitgeroepen tot het Van Dale woord van het jaar. Er is sprake van hallucineren als een taalmodel extra dingen verzint, zoals niet bestaande rechtsuitspraken, om een vraag te beantwoorden.
En dat ligt in het verlengde van het probleem dat veel taalmodellen overdreven behulpzaam zijn. De meeste modellen zullen altijd een manier proberen te bedenken om een gestelde vraag positief te beantwoorden, ongeacht hoe onrealistisch dit is. Een menselijke advocaat zal daarentegen veel eerder de cliënt waarschuwen dat een zaak weinig kans heeft. Dit wordt immers verplicht vanuit de ambtseed die elke in Nederland werkende advocaat heeft afgelegd.
Rechtsstelsel
Bovendien zijn veel taalmodellen bevooroordeeld door de manier waarop ze getraind zijn. De meeste in Nederland gebruikte LLM's zijn geproduceerd door Amerikaanse bedrijven en vooral getraind op online beschikbaar en Engelstalig materiaal. Dit is voor het gebruik van LLM's in de rechtspraak problematisch, omdat dit betekent dat veel van het materiaal waar deze modellen over beschikken gebaseerd zijn op een ander rechtsstelsel dan dat in Nederland gevoerd wordt.
Simpel gesteld is een rechtsstelsel de rechtsfilosofie die aan de basis ligt van de manier waarop binnen een jurisdictie het recht gesproken wordt. In Nederland geldt, net zoals in grote delen van het vasteland in Europa, het continentaal recht. In Groot Brittannië en de Verenigde Staten wordt echter het common law-systeem gehanteerd. Doordat veel LLM's hoofdzakelijk op Engelstalige data zijn getraind zullen ze bij juridische vragen sneller antwoorden geven en argumenten aanvoeren die gebaseerd zijn op common law.
Verantwoordelijkheid
Het gebruik van LLM's ter ondersteuning van de rechtsspraak kan veel tijd en moeite te bepalen. De modellen zijn bijzonder goed in het uitvoeren van administratieve taken. Het wordt echter problematisch wanneer deze technologie gebruikt wordt om juridische argumenten aan te voeren. Hallucineren, te veel positiviteit en een gebrek aan training met het Nederlandse rechtssysteem leiden ertoe dat het uiteindelijk meer werk oplevert dan dat het bespaard.
Dat betekent echter niet dat er helemaal geen plaats is voor het gebruik van LLM's bij juridisch werk. Het is echter belangrijk dat door een computer gegenereerd werk altijd door een mens gecontroleerd wordt. Hadden de door de deken gedisciplineerde advocaten dat gedaan, dan hadden ze gezien dat de door ChatGPT aangeleverde stukken verwezen naar niet bestaande stukken.
Het straffen van deze advocaten is gebaseerd op hetzelfde principe waarmee het ChatGPT-taxatierapport naar de prullenbak werd verwezen: verantwoordelijkheid. Het Nederlands juridisch systeem verwacht deskundigheid, van zowel rechters als advocaten als de basis van bewijsmateriaal en argumenten. En hoewel LLM's met menselijke controle veel werk uit handen kunnen nemen, is het niveau van deskundigheid dat nodig is voor het gebruik in de rechtspraak nog niet in zicht.