Verbod op AI-verbod legt uitdagingen AI aan de universiteit bloot

Het gepoogde verbod op AI en de daaropvolgende intrekking van hogerhand was de eerste grote struikelblok in wat tot nu toe werd verteld als een succesverhaal. Het hele gebeuren legt de uitdagingen van AI aan de universiteit bloot.

Net voor de start van het academiejaar besliste de vakgroep Wijsbegeerte en Moraalwetenschappen om AI-gebruik te verbieden, een beslissing die enkele weken later door de UGent werd teruggefloten. De UGent was de eerste universiteit van België die het gebruik van AI toeliet in bachelor- en masterproeven: een voortrekkersrol die het graag uitdraagt. Het verbod van begin dit academiejaar lokte veel reactie uit, zowel binnen als buiten de universiteit. Later in oktober tekenden X aantal professoren en experts nog een open brief die universiteiten waarschuwt voor generatieve AI en haar negatieve effecten.

Het voornaamste argument van de moraalwetenschappers was dat een denkmachine niet thuishoort op een plek waar denken centraal staat. "Het is alsof een student meubelmaken op zijn eindproef een IKEA-kast voorstelt", zo vertelt een anonieme studentenvertegenwoordiger. 

Large Language Models (LLMs), zoals ChatGPT worden getraind op basis van een enorm grote datapool en geven hun antwoorden op basis van welk woord het meest waarschijnlijk het laatste woord opvolgt. Uit dat proces kunnen ook hallucinaties ontstaan: onjuiste pogingen om het volgende woord te vinden die tot foute informatie leiden.

Einde van de groeicurve

De explosieve groei van AI zoals we die nu kennen, komt ook meer en meer op zijn einde. LLM's hebben nood aan steeds meer data op een steeds grotere schaal om verder te ontwikkelen. Deze schaalvergrotingen vergen echter steeds grotere datacentra, met steeds meer energieverbruik, en dus steeds hogere geldsommen. Google pompte recent nog 40 miljard dollar in drie geplande datacentra in Texas, en in oktober 15 miljard in een datacenter in India.

"Nu geven de universiteiten het geld aan Amerikaanse providers" - Luc Steels

AI-giganten zoals NVidia en Oracle komen terecht in een soort cirkel waar de groei uitgaat van onderlinge investeringen, zo blazen de bedrijven elkaars waarde steeds op. De mogelijkheid van een financiële bubbel lijkt ondertussen reëel. Durfkapitalist en militaire technologiemagnaat Peter Thiel trok recent nog zijn aandelen terug uit NVidia.

Buitenlandse modellen voor Belgische studenten

Ook de context waarin LLMs worden ontwikkeld roept vragen op. De tien meest waardevolle AI bedrijven zijn allemaal Amerikaans. Daarbij komt niet alleen een marktvoordeel, maar ook een waardeoordeel kijken. Hoewel ze Nederlands spreken zijn die Amerikaanse modellen vooral op Angelsaksische bronnen getraind.

Luc Steels, peetvader van de AI in België en professor emeritus aan de VUB, vindt het een belangrijke opdracht voor Belgische en Europese universiteiten om te onderzoeken hoe we die technologieën meer naar eigen hand zouden kunnen zetten, en dus baseren op onze eigen waarden. Huidig AI-onderzoek draait momenteel om de toepassing van die technologie.

"Nu geven de universiteiten het geld aan Amerikaanse providers", aldus Steels. De UGent sloot recent zelf een deal met Microsoft om Copilot gratis aan studenten aan te bieden. Digitale-rechtenexpert Paola Verhaert noemde een gelijkaardige deal van de Vlaamse overheid "Roekeloos" in Knack.

Het controleprobleem

Het is moeilijk om na te gaan wat wel of niet door generatieve AI geschreven is. 

Ook Steels waarschuwt voor dit probleem. "Die systemen zijn ontworpen om zo dicht mogelijk de output van de mens te benaderen. Als je veel teksten hebt dan lukt dat. Die benadering is zo goed dat het niet mogelijk is om op basis van die output te controleren of de student dat zelf heeft geschreven." Hoewel er controletools ter beschikking staan, zijn ze niet altijd accuraat.

"Het brengt ons naar het herwaarderen van mondelinge examens." - Bart Van de Putte

De moeilijke controle op deze modellen werd ook aangehaald door tegenstanders van het verbod. Eerst en vooral om aan te tonen dat een totaalverbod onbegonnen werk is. Daarbovenop lopen studenten die geen AI zouden gebruiken voor hun masterproef het risico om toch aangewezen te worden als schuldig. Een zorg die ook Steels deelde.

Velen kijken naar mondelinge evaluaties als dé oplossing van dit probleem. "Het brengt ons naar het herwaarderen van mondelinge examens" aldus Bart Van de Putte, professor Sociologie.

Discrepantie tussen studenten en proffen

Toch was er bij de moraalwetenschappen niet evenveel steun voor het gepoogde verbod. Onder studenten was meer terughoudendheid, en een eerder pragmatisch standpunt. Er waren echter maar drie studentenvertegenwoordigers aanwezig bij de 20 aanwezigen op de oorspronkelijke onderwijscommissie, die volgens een anonieme vertegenwoordiger "wat werden genegeerd". Andere deelnemers in de vergadering ontkennen dit. De rest was uitgenodigd, maar is niet komen opdagen. "De meest mondige waren aanwezig", aldus diezelfde student. 

Stuver Rafaël beaamt dat een totaalverbod niet de juiste oplossing is. "We moeten leren omgaan met AI, want het zal niet magisch verdwijnen". Daarnaast zit er volgens hem ook positief potentieel in AI en is het daarom een meerwaarde om ermee te leren werken. De vakgroep komt pas in april terug samen om AI en haar impact verder te bespreken, in aanloop naar volgend academiejaar.

Nog geen stemmen

Reactie toevoegen