Voorovergebogen op een surfplank glijdt een koala rustig over de golven, met op de achtergrond andere (menselijke) surfers in beeld. De verbazingwekkend realistische video wordt afgespeeld op de schermen van het Telders Auditorium in het Leidse Academiegebouw. Je zou je bijna gaan afvragen waar je dit surfende buideldier kunt vinden, ware het niet dat het icoontje linksonder aangeeft dat de video is gemaakt door kunstmatige intelligentie.
De video is onderdeel van een symposium over het gebruik van AI voor wetenschappelijke publicaties, dat donderdag werd georganiseerd door de universiteit in samenwerking met Elsevier. Wetenschappers, universiteitsmedewerkers en academische uitgeverijen uit heel Nederland kwamen bijeen om te discussiëren over de risico’s en voordelen van de snelle ontwikkeling van AI voor onderzoek.
‘We kunnen niet zomaar technologieën ontwikkelen en dan maar hopen dat het allemaal goed gaat’, zegt Catholijn Jonker, hoogleraar Interactive Intelligence aan de TU Delft en gasthoogleraar aan het Leiden Institute for Advanced Computer Science (LIACS). ‘Geen enkele technologie is waardevrij. We moeten nadenken over hoe technologie ons als soort beïnvloedt.’
Enthousiasme en scepsis
Een bekende vorm van AI is het Large Language Model (LLM). Toen in 2022 ChatGPT werd gelanceerd, misschien wel het populairste LLM, was er zowel enthousiasme als scepsis. Inmiddels heeft de chatbot ruim 200 miljoen actieve gebruikers per week.
Alhoewel AI – waaronder ChatGPT – de afgelopen jaren in rap tempo is doorgedrongen in het dagelijks leven, kleven er nog tal van praktische en ethische uitdagingen aan het gebruik ervan. Voor universiteiten draait het onder meer om de vraag of en hoe studenten AI mogen gebruiken.
Een soortgelijke vraag geldt voor wetenschappelijke publicaties. Als ChatGPT wordt gebruikt bij het schrijven van een paper, moet het dan worden vermeld als auteur? Niet volgens Anita de Waard, VP Research Collaboration bij Elsevier. Zij wijst erop dat ‘auteurs AI mogen gebruiken om de leesbaarheid te verbeteren, maar er is wel menselijk toezicht en controle nodig.’ Het gebruik van AI is echter niet toegestaan bij peer review. ‘Het bewerken en beoordelen van andermans publicaties is mensenwerk.’
Door de opkomst van AI kampen academische uitgeverijen nu met een nieuw probleem: automatisch gegenereerde neppapers. Net als dat studenten geregeld worden betrapt op het gebruik van AI om hun opdrachten te maken, worden er ook gefabriceerde papers gepubliceerd in wetenschappelijke bladen. Hoe al die neppapers door de peer review heen komen, is onduidelijk.
‘Het publiceren van papers wordt gezien als bewijs dat iemand een wetenschapper is’, zegt De Waard. ‘AI verergert dit probleem, maar het is niet een direct gevolg van AI.’ ‘Ik zie AI als een soort versneller’, zegt Paul Groth, hoogleraar Algorithmic Data Science aan de Universiteit van Amsterdam. ‘Vóór AI hadden we ook al flutpapers en problemen met wetenschappelijke nauwkeurigheid, maar nu hebben we er gewoon meer. We moeten daarom sterker vasthouden aan de wetenschappelijke normen: transparantie en herhaalbaarheid.’
Theoretisch gezien klinkt dat goed, maar werkt het ook in de praktijk? Wat betreft herhaalbaarheid wijst De Waard erop dat als een LLM is gebruikt om een resultaat te genereren, ‘je het experiment in feite niet kunt herhalen omdat je GPT-4 niet in zijn geheel ergens kunt opslaan’. Voor Groth betekent het dat ‘de herkomst van de inhoud van het grootste belang wordt’.
Onvermijdelijke vooroordelen
Volgens De Waard is er nog een andere uitdaging verbonden aan het gebruik van AI voor onderzoek. ‘Vooroordelen zijn onvermijdelijk in de data die we gebruiken om onze modellen te trainen. AI kan zelf ook vooroordelen genereren en versterken omdat die aanwezig zijn in de mensen die de modellen ontwikkelen.’
Zowel wetenschappers als het publiek moeten daarom kritischer zijn. ‘Mensen moeten begrijpen dat deze dingen geen magie zijn’, zegt Michael Cook, Senior Lecturer aan King’s College London. ‘ChatGPT is zo ontworpen dat het zijn fouten verdoezelt.’
Peter van der Putten, universitair docent aan het LIACS, biedt een meer filosofisch perspectief. ‘We moeten ons ervan bewust zijn dat de output van AI slechts een schaduw is en niet echt. Modellen kunnen losraken van de werkelijkheid.’ Denk aan de surfende koala.
Niemand die aanwezig is op het symposium is voorstander van een algeheel verbod op het gebruik van AI in de academische wereld. Wel benadrukken de aanwezigen het belang van menselijk toezicht. ‘Deze modellen zijn getraind op stijl’, waarschuwt De Waard: ‘Large Language Models redeneren niet. Ze zijn eigenlijk voortdurend aan het hallucineren.’