JOUW RECHT UITGELEGD CHATGPT
Hoe ver mag je gaan met het gebruik van AI bij je thesis?

In 'Jouw recht uitgelegd' doorprikt Veto de bubbel van de juridische wereld. Deze keer: waarop moet je letten bij het gebruik van AI voor je thesis?
Thesissen schrijven, seminaries uitwerken of oefeningen voorbereiden: elke student heeft het al eens moeten doen. Steeds vaker grijpen studenten daarbij naar artificiële intelligentie, met een Large Language Model (LLM) zoals GPT-4 van OpenAI. Maar hoe doe je dat op een correcte en verantwoorde manier?
AI is voor de juridische wereld een relatief nieuw fenomeen, waardoor er nog veel vragen bestaan over het gebruik ervan bij thesissen. 'Als universiteit proberen we hierin mee te evolueren door vooral het correct gebruik van AI onder de aandacht te brengen', zegt Tine Baelmans, vicerector Onderwijsbeleid van de KU Leuven.
'Toch hebben we de laatste twee jaar samen een kleine dertig studenten betrapt op fraude. In veel van die gevallen valt dit samen met slecht refereren of lage kwaliteit van de tekst, en spelen er nog andere zaken dan dat ze gebruikmaakten van generatieve AI.'
1. Wie heeft het auteursrecht op de ingegeven tekst?
Wanneer je zelf een tekst schrijft, ben je hier in eerste instantie zelf de auteur van en geniet je auteursrechtelijke bescherming. Maar wat gebeurt er als je die tekst invoert in een LLM? 'In principe behoud je dat recht, maar de LLM krijgt wel een licentie op de tekst om een antwoord te kunnen geven op jouw vraag', vertelt Jozefien Vanherpe, professor intellectuele rechten aan de KU Leuven.
'Als je de niet-betalende versie van de LLM gebruikt, kan de ingegeven tekst gebruikt worden om het systeem te trainen', vertelt Louis Vanderdonckt, juridisch adviseur bij ML6, een bedrijf dat zich specialiseert in AI services op maat. 'Er is dan een kans dat jouw input kan belanden in de output van iemand anders.'
2. Mag je teksten van anderen in LLM's stoppen?
Een tekst van een andere auteur uploaden in een LLM, om er bijvoorbeeld een samenvatting van te krijgen, is niet altijd even onschuldig. 'Je moet van bij het begin eigenlijk kijken wat er in de licentie staat die de KU Leuven heeft afgesloten met de databanken die je gebruikt', benadrukt Vanherpe. Als je volgens de licentie de tekst enkel mag downloaden, mag die in principe niet in een LLM verwerkt worden.
Daarnaast stoot je op het praktische probleem van refereren, waarschuwt Vanherpe. Om plagiaat van de desbetreffende auteurs te vermijden moet je namelijk de exacte pagina's die je gebruikte in je voetnoten kunnen aanstippen.
3. Wie heeft het auteursrecht op de output van zo'n LLM?
'Wie het auteursrecht heeft op AI-output is niet altijd duidelijk', zegt Vanderdonckt. 'We weten namelijk niet met zekerheid of er enig auteursrecht mogelijk is op een door AI gegenereerde tekst, aangezien er voldoende tussenkomst van een mens nodig is om auteursrecht te doen ontstaan', voegt Vanherpe daaraan toe.
'Er moet een causaal verband zijn tussen wat de student erin steekt, en de gegenereerde output, opdat er van een auteursrecht sprake kan zijn', weet Vanherpe. Anders kan de student zich niet de auteur van de tekst in kwestie noemen.
Als je een eigen tekst invoert in een LLM, is de kans kleiner dat de gegenereerde output op bestaande bronnen gebaseerd is. 'De mate waarin je risico loopt, hangt af van hoe je de AI gebruikt', aldus Vanderdonckt. 'In het geval je je input louter tekstueel laat aanpassen, behoud je uiteraard je auteursrechten.'
4. Wie is aansprakelijk bij foute informatie in de output?
LLM's genereren niet altijd correcte informatie, maar wie draagt de verantwoordelijkheid als je die foute informatie gebruikt in jouw thesis? 'Als je ChatGPT gebruikt, ga je akkoord met de gebruiksvoorwaarden en sluit je eigenlijk een contract af', zegt Jan De Bruyne, professor technologie en recht aan de KU Leuven.
In die voorwaarden staat geschreven wie er verantwoordelijk is wanneer er fouten ontstaan. Veel LLM's vermelden dat ze slechts een opinie genereren of dat hun output gecontroleerd moet worden. Dat kan de indruk wekken dat gebruikers geen juridische stappen kunnen ondernemen tegen de makers van de AI-tool. Of een gebruiker een kans maakt tegen de makers van de AI-tool hangt af van geval tot geval.
'Daarnaast moet vermeld worden dat de student altijd de verantwoordelijkheid draagt voor de eigen thesis', zegt De Bruyne. 'GenAI kan worden gebruikt als hulpmiddel of ondersteuning, maar de student blijft de verantwoordelijkheid dragen.'
Wat mag van de KU Leuven?
Hoewel het Onderwijs- en Examenreglement (OER) geen specifieke bepaling bevat over het gebruik van AI, valt dit onder het algemene artikel 84 dat onregelmatigheden bestraft. 'We hebben hier bewust voor gekozen om zo het correct gebruik van GenAI te omarmen', legt Baelmans uit.
'Enkel als het gebruik van GenAI een juist oordeel over de bijdrage van de student onmogelijk maakt, spreken we over een onregelmatigheid.' Op die manier zou de open definitie van artikel 84 robuust zijn tegen verdere technologische evoluties.
'Tegelijk vinden we dat AI-tools studenten niet mogen weerhouden om kritisch te blijven, de juistheid te onderzoeken en correct te refereren', aldus Baelmans. Bovendien zijn er op de website gedetailleerde richtlijnen beschikbaar voor studenten. Zo kan je bijvoorbeeld geen GenAI gebruiken tijdens een online examen wanneer dit niet de bedoeling is.
Twijfel je over jouw gebruik van AI voor een bepaald vak? Je kan het onderwijsteam van het betreffende vak altijd benaderen met jouw vragen. Dit is geen juridisch advies. Mogelijke nuances en uitzonderingen werden achterwege gelaten.
i