GenAI: Gebruik van (Gen)AI bij peer review en evaluatie

Generatieve AI (GenAI) vormt steeds meer een deel van ons dagelijkse leven en (Gen)AI-toepassingen kunnen voor veel verschillende taken ingezet worden. Dit betekent echter niet dat het gebruik altijd is toegelaten of dat dit ethisch en verantwoord is. Mag je (Gen)AI gebruiken om een artikel, onderzoeksaanvraag of een abstract van een bijdrage voor een conferentie te evalueren? Wat als je denkt dat jouw artikel, onderzoeksaanvraag of bijdrage met behulp van (generatieve) AI werd geëvalueerd?

Als algemene regel kan gesteld worden dat het niet toegelaten is om een peer review of evaluatie volledig uit te besteden aan een (Gen)AI-tool. Maar wat houdt dit nu precies in?

Meer info over peer reviews in het algemeen? Lees dan deze onderzoektip.

 

De Universiteit Gent biedt toegang tot de AI-tool Microsoft Copilot Chat aan. 
Voor meer informatie, consulteer volgende Onderzoektip: "GenAI: Copilot Chat als AI-assistent aan de UGent (kiezen voor dataveiligheid)".

 

Als reviewer/evaluator: regels rond het gebruik van (Gen)AI bij peer review en evaluaties

In de bestaande richtsnoeren en informatie aan de UGent over het gebruik van (Gen)AI wordt benadrukt dat je best geen privacy-gevoelige, persoonlijke, auteursrechtelijk beschermde of vertrouwelijke informatie in (gratis) (Gen)AI-tools invoert zonder bindende beschermingsgarantie of expliciete en geïnformeerde toestemming. Dit is de gouden regel bij het gebruik van GenAI om zo de intellectuele eigendom en privacy van anderen (en jezelf) te beschermen. Nog ongepubliceerde artikels, onderzoeksvoorstellen of een abstract voor conferentie-bijdrage behoren tot dit type informatie en worden in vertrouwen gegeven.

Voor meer informatie: Neem de UGent-richtlijnen over vertrouwelijke informatie door.

 

In de nieuwe Europese richtsnoeren voor het verantwoord gebruik van GenAI in onderzoek, de “Living guidelines on the responsible use of generative AI in research”, (hierna: Living Guidelines) wordt expliciet gesteld dat onderzoekers…

Refrain from using generative AI tools substantially in sensitive activities that could impact other researchers or organisations (for example peer review, evaluation of research proposals, etc). Avoiding the use of generative AI tools eliminates the potential risks of unfair treatment or assessment that may arise from these tools’ limitations (such as hallucinations and bias).  Moreover, this will safeguard the original unpublished work of fellow researchers from potential exposure or inclusion in an AI model […].” (Living Guidelines, 2025)

Het is volgens de Living Guidelines dus niet toegelaten het evalueren van artikels, onderzoeksaanvragen, conferentie-bijdrages etc. (geheel of gedeeltelijk) uit te besteden aan (Gen)AI-toepassingen. Enerzijds omdat het risico op een onjuiste of oneerlijke beoordeling ontstaat ten gevolge van de beperkingen van de gebruikte (Gen)AI toepassing, zoals hallucinaties of bias.  Anderzijds omdat het ongepubliceerde werk dat in vertrouwen werd gedeeld, en dat mogelijks privacy-gevoelige, persoonlijke, auteursrechtelijk beschermde of vertrouwelijke informatie bevat, zo zonder de toestemming en het medeweten van de auteur(s) publiek wordt gemaakt. Het is namelijk mogelijk dat het artikel of de onderzoeksaanvraag als input door de (Gen)AI-toepassing als trainingsdata gebruikt wordt en daardoor later elders (gedeeltelijk) als output gegenereerd kan worden.

Bij het gebruiken van (Gen)AI voor het evalueren van een artikel of onderzoeksaanvraag kan mogelijks aanleiding geven tot een inbreuk op de privacy (onder de GDPR/AVG), aangezien persoonsgegevens verwerkt kunnen worden zonder een geldige rechtsgrond en deze gegevens op een onveilige manier openbaar worden gemaakt. Daarnaast gaat het mogelijks ook om (1) een auteursrechtelijke inbreuk, (2) schending van de vertrouwelijkheidsverplichtingen, (3) alsook schending van de intellectuele eigendom wanneer auteursrechtelijke gegevens worden gedeeld zonder hiervoor gerechtigd te zijn.

De UGent onderschrijft de ALLEA-code of  “Europese Gedragscode voor Wetenschappelijke Integriteit”. Deze bevat een sectie over goede onderzoekspraktijken, waarbij ook aanbevelingen omtrent beoordelingen en evaluaties geformuleerd worden. Onderzoekers moeten “inzendingen voor publicatie, financiering, benoeming, promotie of beloning op transparante en verantwoorde wijze [beoordelen en evalueren], en maken het gebruik van AI en geautomatiseerde hulpmiddelen bekend” (ALLEA code, 2023). Ze moeten hierbij ook de rechten van auteur(s) respecteren en dientengevolge toestemming aan de auteur(s) vragen “om gebruik te maken van de gepresenteerde ideeën, data of interpretaties” (ALLEA code, 2023). Hier valt ook het invoeren van het bestand in een (Gen)AI-toepassing onder. Bovendien zijn de principes zoals vastgelegd in de auteurswet (art. XI. 165 WER) op dit punt nog een stuk strikter dan de regels inzake wetenschappelijke integriteit (ALLEA).

Bovenstaande vermeldde richtsnoeren stellen dus dat het niet gepast is om als reviewer of evaluator (zonder expliciete toestemming) een artikel, onderzoeksaanvraag of abstract in een (Gen)AI-toepassing in te voeren. Dit betekent echter niet dat ieder gebruik van (Gen)AI tijdens het peer review proces automatisch uitgesloten is. Tenzij (Gen)AI-gebruik expliciet verboden wordt door het tijdschrift, de uitgever, de financieringsinstelling of de organisatoren van de conferentie, is het in principe wel mogelijk om (Gen)AI in te zetten, bijvoorbeeld voor de taalcorrectie van je review, op voorwaarde dat je hierbij (ook indirect) geen enkele privacy-gevoelige, persoonlijke, vertrouwelijke of auteursrechtelijk beschermde data uit het artikel, de onderzoeksaanvraag of het abstract deelt. Wat zeker niet correct is, is om een volledig artikel/onderzoeksaanvraag/abstract in een (Gen)AI-toepassing (bv. Copilot, ChatGPT, Gemini…) in te voeren en die te vragen om een review te schrijven. Dit zou betekenen dat de evaluatie wordt uitbesteed, wat volgens bovengenoemde richtsnoeren niet mag. Verschillende tijdschriften, uitgeverijen, onderzoeksfinancieringsinstellingen verbieden ook eender welk gebruik van (Gen)AI door evaluatoren echter expliciet.

Samenvatting: Het uitbesteden van de evaluatie van een artikel, onderzoeksaanvraag of abstract aan (Gen)AI is NIET toegelaten en vormt een inbreuk op de wetenschappelijke integriteit.

 

Voorbeeld: richtlijnen van een financieringsinstelling (FWO)

Niet ieder tijdschrift, organisatie of financieringsinstelling hanteert dezelfde regels. Informeer je dus goed om na te gaan wat de regels zijn. Het FWO verbiedt bijvoorbeeld het gebruik van (Gen)AI in het evaluatieproces (zie artikel 21 ($6), artikel 24 ($2 en $4) in hun richtlijnen).

 

Als auteur: wat als je vermoedt dat je artikel, onderzoeksaanvraag of abstract met (Gen)AI geëvalueerd werd?

Zoals hierboven uitgelegd werd is het volledig uitbesteden van de beoordeling van een artikel, onderzoeksaanvraag of conferentiebijdrage aan generatieve AI niet toegelaten en moet substantieel gebruik ook zeker transparant aangegeven worden.  Bij het schrijven van een peer review vormt het gebruik van (Gen)AI mogelijks een inbreuk op de wetenschappelijke integriteit, een auteursrechtelijke inbreuk, een schending van de vertrouwelijkheidsverplichtingen en van de intellectuele eigendom. Indien je het vermoeden hebt dat jouw beoordeling of evaluatie door (Gen)AI gegenereerd werd moet je dit (in de mate van het mogelijke) nagaan en melden bij de juiste instanties.

 

Hoe kan je een door (Gen)AI-geschreven peer review of evaluatie herkennen?

Het herkennen van (Gen)AI-gegenereerde inhouden in vooralsnog geen exacte wetenschap en (Gen)AI-detectoren slaan de bal regelmatig mis. Desondanks zijn er enkele zaken die het gebruik van (Gen)AI kunnen weggeven. Deze lijst is niet exhaustief, maar kan wel als hulpmiddel dienen:

·        Er wordt aangeraden om te verwijzen naar papers die…

1.       …niets met het onderwerp van de aanvraag/het artikel te maken hebben.

2.      …niet blijken te bestaan (en dus gehallucineerd werden).

·        De beoordeling of evaluatie bevat een zin(ssnede) die expliciet weggeeft dat deze door een chatbot gegenereerd werd, bijvoorbeeld “I am very sorry, but I don’t have access to real-time information as I am an AI language model” of “of course, I can generate a peer review for you”.

·        De formulering van de review lijkt (af en toe) nergens op te slaan of blijft verdacht vaag en bevat geen of weinig concrete verwijzingen naar je onderzoeksaanvraag, abstract of artikel (zie ook de bevindingen van Maria Ángeles OviedoGarcía):

o   “In abstract, the author should add more scientific findings.”

o   “Discuss the novelty and clear application of the work in the abstract as well as in introduction section.”

o  

 

Wat moet je doen?

Als je gegronde vermoedens hebt dat de beoordeling of evaluatie van jouw onderzoeksaanvraag, artikel of abstract met behulp van (Gen)AI gegenereerd werd en dat jouw rechten als auteur dientengevolge geschonden werden, moet je dit zo snel mogelijk melden bij twee instanties:

1.      Neem contact op met de betrokken editors (eventueel ook met het tijdschrift of de uitgeverij), met de financieringsinstelling en/of de organisator van de conferentie en breng hen hiervan op de hoogte.

2.      Gelet op de vermelding in de ALLEA code, die het toepassingsgebied uitmaakt van de Commissie Wetenschappelijke Integriteit (CWI), meld je klachten over onverantwoord AI-gebruik ook altijd daar.

 

Meer info over (Gen)AI aan de UGent?

Er is aan de UGent al heel wat informatie beschikbaar over de omgang met (generatieve) AI in vanuit verschillende opzichten en doeleinden.

Meer informatie over (Gen)AI in onderzoek?

Meer info over (Gen)AI in onderwijs?

Wil je bijleren, experimenteren en oefenen?

Wil je weten welke informatie de studenten krijgen?

 

 

Vertaalde tips


Laatst aangepast 10 juli 2025 15:13