Geleerde lessen van een onderwijsinstelling die studenten en medewerkers toegang gaf tot AI
Wanneer je AI inzet in het onderwijs, maakt de didactische aanpak het verschil en niet het feit dat je AI gebruikt. Dat is een van de belangrijkste lessen die Syracuse University deelt in het artikel “Syracuse University Gave AI Access To 30,000+ Students and Faculty. Here’s What They Learned” van Erik Ofgang.
Syracuse University heeft Claude organisatiebreed beschikbaar gesteld aan meer dan 30.000 studenten, docenten en andere medewerkers.
Jeff Rubin, Chief Digital Officer van Syracuse University, beschrijft hoe hij in zijn eigen introductiecursus informatietechnologie -met enkele honderden studenten- Claude inzette om oefenvragen te genereren op basis van zijn opgenomen hoorcolleges. Studenten willen gevarieerde oefentoetsen, maar voor een docent is het lastig om zelf duizenden verschillende vragen te bedenken. Claude bleek dat probleem technisch gezien eenvoudig op te lossen: de tool genereerde grote hoeveelheden meerkeuzevragen die studenten konden doorwerken. In theorie leek dit een bruikbare aanpak. In de praktijk bleek uit een peiling onder studenten dat degenen die intensief met Claude hadden geoefend, niet beter scoorden op toetsen dan anderen.
Rubin legde dit voor aan onderwijskundigen binnen de universiteit. Zij stelden dat meerkeuzevragen niet tot actief denken leiden. Een lerende kiest een antwoord, maar hoeft er geen redenering achter te formuleren. Rubin paste vervolgens zijn instructies aan Claude aan. In plaats van meerkeuzevragen vroeg hij de tool om open vragen te stellen, gebaseerd op begrippen uit zijn colleges, en om studenten daarna gerichte feedback te geven op wat ze goed en minder goed begrepen. De lerende typt een antwoord, Claude beoordeelt de respons en geeft aan welke onderdelen correct zijn en wat er nog ontbreekt. Volgens Rubin stegen de gemiddelde toetsscores daarna met twaalf punten. Hij tekent daarbij aan dat hij dit systeem nog maar kort gebruikt en de resultaten op langere termijn wil blijven volgen.
Naast deze toepassing in het onderwijs zijn er andere gebruiksmogelijkheden ontwikkeld. De universiteit heeft een zoektool geïntroduceerd genaamd Clementine, die gebaseerd is op Claude Opus. Dit systeem doorzoekt miljoenen rijen institutionele data in realtime en stelt zoekresultaten samen die zijn afgestemd op het rooster, de cijfers en de doelen van een individuele student. Een vergelijkbare zoekfunctie stelt medewerkers in staat om efficiënter informatie op te zoeken over potentiële donateurs van de universiteit.
Daarnaast loopt er een pilotprogramma met Claude Code. Andrew Joncas, Assistant Vice President voor enterprise data en AI, geeft aan verrast te zijn door de brede interesse in dit middel vanuit de gemeenschap van zijn onderwijsinstelling. Bij programmeurs bestaat soms weerstand tegen AI-hulpmiddelen, omdat zij hun werk als ambacht beschouwen. Joncas pakt die weerstand aan door te demonstreren wat het gereedschap concreet doet: hij laat Claude Code een eenvoudig spel bouwen. Dat klinkt triviaal, maar het doel is mensen laten zien wat er mogelijk is. Zodra ze dat zien, wordt de drempel lager.
Rubin stelt in deze bijdrage ook dat onderwijsinstellingen worstelen met uiteenlopende ethische vragen rond AI: van de milieubelasting en privacyrisico’s tot mogelijke baanverlies en psychische effecten. Syracuse University pakt dit aan via een brede AI-governance-structuur, waarbij medewerkers uit verschillende delen van de universiteit betrokken zijn. Daarnaast organiseert de universiteit trainingen waarin deze thema’s openlijk worden besproken.
Wat betreft ongewenst gebruik van AI door studenten, bijvoorbeeld het laten schrijven van teksten door AI-toepassingen, geeft Rubin aan dat de huidige aanpak in syllabi -varianten van “je mag AI gebruiken”, “je mag het niet gebruiken” of “onder deze voorwaarden”- een lapmiddel is. Volgens hem gaat het erom dat je AI pedagogisch-didactisch inbedt. Als AI onderdeel wordt van een doordachte didactische aanpak, ontstaan er volgens hem minder problemen rondom ongewenst gebruik. Gebruik bijvoorbeeld actieve, betekenisvolle opdrachten waarbij studenten zelf redeneren en beslissingen nemen, in plaats van standaard essays te schrijven. Rubin stelt bijvoorbeeld dat je studenten bijvoorbeeld de rol kunt laten vervullen van de commandant van een legereenheid die beslissingen moet nemen, in plaats van essays over de Tweede Wereldoorlog te schrijven.
Rubin pleit ook voor transparantie van docenten over hun eigen AI-gebruik. Als AI wordt ingezet bij het voorbereiden van colleges of het opstellen van toetsen, zouden studenten dat moeten weten. Niet omdat er iets mis mee is, maar omdat openheid over het gebruik van AI onderdeel is van professioneel handelen.
Mijn opmerkingen
Op zich is dit een interessante casus met een aantal geleerde lessen. Toch blijf ik met een aantal vragen zitten. Bijvoorbeeld hoe studenten gestimuleerd zijn om de feedback op de antwoorden op open vragen daadwerkelijk te gebruiken. Dat is waarschijnlijk de reden waarom zij opeens hoger scoren op de uiteindelijke toets (tenzij andere factoren in het geding zijn). Een andere vraag die ik heb, heeft te maken met het voorbeeld van de actieve, betekenisvolle, opdracht die moet voorkomen dat lerenden het leren uitbesteden aan -in dit geval- Claude. AI-toepassingen zoals Claude zijn namelijk ook sterk in het spelen van een rol. Als studenten deze opdracht beschouwen als een ‘hoepel’ waardoor ze moeten springen om de eindstreep te halen, dan is de kans aanwezig dat dat zij Claude ook hierbij zullen inschakelen. Je zult niet alleen actieve en betekenisvolle opdrachten moeten gebruiken, maar meer nadruk leggen op het leerproces, in plaats van het eindresultaat. Heeft deze universiteit daar ook werk van gemaakt?
Interessant is om te lezen hoe deze universiteit omgaat met ethische vragen en transparantie in het gebruik. Dit verdient meer aandacht in het gesprek over AI-beleid in onderwijsinstellingen.
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie.
Lees het hele
artikel