AI op de campus: ChatGPT-gebruik, beleid en risico’s

De opkomst van kunstmatige intelligentie heeft een onmiskenbare impact op de universiteitscampus. Sinds de introductie van ChatGPT is het gebruik van generatieve AI stevig doorgedrongen tot het hoger onderwijs. Uit een enquête van Vox onder ruim 350 studenten en 130 medewerkers van de Radboud Universiteit blijkt dat zowel studenten als wetenschappers frequent gebruikmaken van AI-tools. ChatGPT is veruit het meest gebruikte AI-model, waarbij zes op de zeven respondenten aangeven het te gebruiken.

Studenten waarderen AI vooral vanwege het gemak en de tijdwinst die het biedt. Het wordt ingezet voor het opzoeken van informatie, het maken van samenvattingen en het verduidelijken van moeilijke stof. Slechts een klein deel van de studenten gebruikt AI om hogere cijfers te behalen. Wetenschappers zien AI als een waardevol hulpmiddel voor administratieve taken, samenvattingen en taalkundige correcties. Toch is er terughoudendheid bij het gebruik van AI in cruciale academische processen zoals peer review.

AI-hoogleraar Iris van Rooij waarschuwt voor de gevaren van AI-tools zoals ChatGPT. Ze ziet het als een bedreiging voor academische vorming, omdat het kritisch en zelfstandig denken kan ondermijnen. Daarnaast zijn er ethische bezwaren zoals auteursrechten, duurzaamheid en de ondoorzichtigheid van grote taalmodellen. Van Rooij benadrukt dat het belangrijker is om bestaande fraude- en integriteitsregels toe te passen dan een algeheel verbod in te stellen.

Hoewel AI breed wordt ingezet, verschilt het beleid per faculteit en zelfs per cursus. Bijna alle studenten en medewerkers vinden dat er duidelijke institutionele richtlijnen moeten komen. Een op de zes studenten weet niet wat de regels binnen de eigen opleiding zijn. Docenten controleren meestal op AI-gebruik via schrijf- en bronanalyse, maar slechts 5% gebruikt detectiesoftware. Overtredingen zijn zeldzaam: slechts 5% van de studenten geeft aan regelmatig regels te overtreden.

Wetenschappers zien AI als een nuttig hulpmiddel bij data-analyse en tekstverwerking, maar zijn kritisch over het gebruik ervan bij het beoordelen van onderzoeksprestaties of het schrijven van publicaties. Slechts 7,5% vindt AI-gebruik bij peer review acceptabel zonder voorbehoud. Toch blijkt uit onderzoek dat AI reeds wordt toegepast in dit proces, wat tot zorgen leidt over een mogelijke ‘echokamer’ in de wetenschap.

De Radboud Universiteit werkt aan universiteitsbrede richtlijnen rondom AI-gebruik. Beleidsmakers benadrukken het belang van verantwoord gebruik, met aandacht voor publieke waarden zoals duurzaamheid en onafhankelijkheid van Big Tech. Daarnaast komt er een AI-register dat risico’s en mogelijkheden van verschillende tools inzichtelijk maakt. Studenten wordt geadviseerd om veilige alternatieven zoals Microsoft365 CoPilot te gebruiken, al gebeurt dit nauwelijks in de praktijk.

Samengevat verandert AI onmiskenbaar het onderwijs en onderzoek, maar roept het ook fundamentele vragen op over integriteit, regelgeving en academische vorming. Voor bedrijven en teams die AI willen toepassen, biedt CoreFocus.ai waardevolle inzichten en praktische toepassingen om slimmer en efficiënter te werken met AI. Onze drie pijlers – 𝗜𝗻𝘀𝗽𝗶𝗿𝗮𝘁𝗶𝗲, 𝗗𝗶𝘀𝗰𝗼𝘃𝗲𝗿𝘆 en 𝗜𝗺𝗽𝗹𝗲𝗺𝗲𝗻𝘁𝗮𝘁𝗶𝗲 – helpen je om AI op een verantwoorde en effectieve manier te integreren in je organisatie. 𝘗𝘭𝘢𝘯 𝘦𝘦𝘯 𝘤𝘢𝘭𝘭 𝘮𝘦𝘵 𝘰𝘯𝘴 𝘪𝘯 en ontdek de mogelijkheden.

Case study: praktische AI-toepassingen bij EnsurCase study: praktische AI-toepassingen bij Ensur
AI Agent Management: De onmisbare skill voor de toekomst

Persoonlijk AI-Advies

Boek een vrijblijvende 30-minuten sessie om te verkennen hoe AI-tools jouw workflow kunnen versnellen. We beantwoorden al je vragen en laten zien hoe onze aanpak naadloos aansluit op je bestaande processen. Plan vandaag nog je gesprek.