"De kantonrechter schat, mede met behulp van ChatGPT ..." Deze zinsnede kon in slechts een paar dagen tijd op een storm van kritiek rekenen. Een rechter die ChatGPT gebruikt om een schatting te doen, dat kan toch niet? Wij zien het anders: de vraag is in de meeste gevallen niet óf je ChatGPT of vergelijkbare tools mag gebruiken, maar hoé je ze op verantwoorde wijze gebruikt. Dat geldt niet alleen voor rechters, maar voor alle juristen en wetenschappers. Bij verantwoord gebruik, blijven dit soort taalmodellen immers hulpmiddelen. Net als bij een online zoekmachine of een offline bibliotheek geldt dat dit soort hulpmiddelen enorm waardevol kunnen zijn, mits ze op de juiste wijze worden ingezet. In dit blog vertellen wij welke best practices we aanbevelen bij het gebruik van ChatGPT en vergelijkbare modellen als verwijssysteem in de juridische en wetenschappelijke praktijk.
In dit geval gebruikte de rechter ChatGPT onder meer om te schatten hoeveel schade een partij had geleden. De rechtszaak speelde namelijk tussen twee buren: buur A had zonnepanelen, maar leed hierop tijdelijk rendementsverlies omdat buur B een opbouw op zijn dak liet plaatsen. In de rechtbank eiste buur A daarom een schadevergoeding. De rechter moest beoordelen of deze schadevergoeding redelijk is, maar helaas had buur A "... een voor de kantonrechter moeilijk volgbare eigen berekening in de dagvaarding opgenomen". Daarom had de kantonrechter, mede met behulp van ChatGPT, zelf een schatting van de schade gedaan. Die viel een stuk lager uit dan de eis van buurman A en zorgde ervoor dat deze zelfs helemaal geen recht meer had op een schadevergoeding.
Kort door de bocht: ja, dit mag. Volgens de wet mag de rechter de omvang van schade schatten als deze niet nauwkeurig kan worden vastgesteld. In dit geval vond de kantonrechter dat de schade niet nauwkeurig kon worden vastgesteld op basis van de berekening van buur A. Dan mag je dus zelf een schatting doen. En als je als rechter onder andere ChatGPT wilt gebruiken om zo'n schatting te doen, dan is er niets wat daaraan in de weg staat. Toch raden wij niet aan naar ChatGPT te verwijzen zoals in deze zaak is gedaan. Maar waarom niet?
De rechter in bovenstaande zaak leek (mede) ChatGPT te gebruiken als bron. Dat is vergelijkbaar met het noemen van Google als bron: het zegt weinig. Als je ChatGPT of een vergelijkbare tool gebruikt voor onderzoek moet je altijd in het achterhoofd houden wat je hier nou precies van mag verwachten. Het zijn namelijk geen gesprekken met bijvoorbeeld een zonnepanelen-expert, maar met een (groot) taalmodel. Als je een vraag stelt, berekent zo'n model het meest waarschijnlijke antwoord op basis van jouw vraag en alle informatie die het ooit heeft gezien. Maar hoe dat antwoord tot stand is gekomen, kun je niet meer zien. Hierdoor is het niet geschikt als bron, maar wij vinden dat het juristen of onderzoekers wel op een andere manier kan helpen: als verwijssysteem!
ChatGPT en andere taalmodellen zijn getraind op grote hoeveelheden data. En tussen deze data kan goed informatie staan die voor jou nuttig is. Door taalmodellen als verwijssysteem te gebruiken, vind je de bronnen achter het antwoord. Zo kun je de informatie beter beoordelen en ook controleerbaar maken voor anderen.
Voor iedereen die een taalmodel wil gebruiken om onderzoek te doen, is het daarom belangrijk op een aantal dingen te letten. Door de volgende best practices te hanteren, kun je taalmodellen op een zorgvuldige manier als verwijssysteem gebruiken.
Met deze vijf best practices kun je ChatGPT en andere taalmodellen prima gebruiken als verwijssysteem. Voor meer algemene best practices over het gebruik van taalmodellen kun je ook naar onze ChatGPT-richtlijnen kijken. In de "ChatGPT-zaak" zouden bovenstaande tips er in elk geval toe hebben geleid dat niet ChatGPT, maar de onderliggende bronnen in de uitspraak werden genoemd. Zo kunnen alle lezers deze achtergrondinformatie controleren.
Naast deze algemene best practices zijn er voor een rechter ook andere factoren van belang. Denk bijvoorbeeld aan hoor en wederhoor. De Hoge Raad heeft zich hier al over uitgesproken bij rechters die op eigen initiatief Google gebruikten om extra informatie te verzamelen: zulke informatie in een einduitspraak gebruiken, mag niet zomaar. Partijen moeten nog de kans krijgen hierop te reageren, bijvoorbeeld door een tussenuitspraak. Als je als rechter informatie met ChatGPT of andere hulpmiddelen verzamelt, moet je dus goed nagaan hoe 'nieuw' dit is voor de partijen.
De "ChatGPT-zaak" heeft de discussie rondom het gebruik van ChatGPT weer aangewakkerd. En dat is maar goed ook, want het is belangrijk dat zulke tools bewust worden gebruikt. Maar dat we de grenzen goed moeten bewaken, betekent niet dat we niet naar de mogelijkheden mogen kijken. Onze best practices geven goede handvatten om een taalmodel als verwijssysteem te gebruiken, of je nou een rechter, jurist of onderzoeker bent!
Wil jij ook de hulp van programma's zoals ChatGPT inzetten? Dan is onze training 'GPT in de juridische praktijk' misschien wel iets voor jou.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.