Didactische bias van AI-aangedreven educatieve tools
Bias is een (vaak onbewuste) voorkeur of vertekening die invloed heeft op hoe we denken, beslissen of iets waarnemen. Chen, Cheng, Wang en Leung (2025) laten zien dat educatieve AI-applicaties didactische bias bevatten. Zij doelen daarmee op AI-applicaties waarmee je lesplannen kunt ontwikkelen. Deze AI-aangedreven educatieve tools gaan volgens de onderzoekers echter uit van verouderde onderwijsbenaderingen. Volgens mij vraagt dit ook om aanscherping van ‘constructive alignment’.
Chen, Cheng, Wang en Leung (2025) schrijven dat educatieve technologieën vaak vooroordelen bevatten die heersende maatschappelijke normen weerspiegelen. Deze vooroordelen vertalen zich vervolgens in ontwerpkeuzes die niet-dominante perspectieven marginaliseren. Bijvoorbeeld: automatische beoordelingssystemen hebben moeite met het eerlijk beoordelen van lerenden van diverse achtergronden. De nadruk op gepersonaliseerd leren versterkt volgens de auteurs individuele prestatiemetrieken en onderschat structurele ongelijkheden. Traditionele educatieve technologieën richten zich op cognitieve uitkomsten en informatieoverdracht in plaats van kritisch denken, waarbij efficiëntie vaak boven pedagogisch-didactische diversiteit gaat.
In dit onderzoek richten Chen cs zich op pedagogisch-didactische vooroordelen van AI-aangedreven educatieve tools. Deze applicaties kunnen verouderde onderwijsvisies vertegenwoordigen, maar bieden ook kansen om doelbewust tools te ontwerpen die moderne onderwijsvisies ondersteunen. Zij wijzen erop dat de onderzochte AI-lesplanmakers populair zijn bij docenten vanwege tijdsbesparing, ontwerpideeën en veelzijdigheid. Onderzoek wijst naar hun mening echter op beperkingen: de kwaliteit varieert sterk en AI-systemen kunnen verouderde pedagogisch-didactische praktijken bevorderen. Dit vraagt volgens hen om kritische evaluatie en verdere verfijning van deze tools.
Daarom hebben de onderzoekers 90 lesplannen geanalyseerd die zijn gemaakt door commerciële AI-tools. Ze keken specifiek naar twee pedagogisch-didactische aspecten: ‘student agency’ (het vermogen van lerenden om actief en zelfbewust regie te nemen over hun eigen leerproces) en dialoog in de onderwijssetting.
Volgens de auteurs verwijst ‘student agency’ verwijst naar het vermogen van lerenden om doelen te stellen, na te denken over hun leerproces en doelgerichte acties te ondernemen. Het onderzoek gebruikt een kader met drie dimensies:
- Dispositionele dimensie: zelfperceptie en doelgerichtheid.
- Motivationele dimensie: overtuigingen en waarden die lerenden aanzetten tot inzet.
- Positionele dimensie: hoe lerenden autonomie ervaren binnen sociale contexten.
De onderzoekers vergeleken lesplannen afkomstig van drie toepassingen: het standaard GPT-4 model en twee populaire specifieke educatieve platforms (MagicSchool en School AI). Hun bevindingen zijn niet positief: de AI-gegenereerde lesplannen bevorderen vooral docentgerichte onderwijssettings met beperkte keuzemogelijkheden voor lerenden.
Typische aanwijzingen in deze lesplannen zijn dan: “Deel werkbladen uit en vraag lerenden om rustig te werken” of “Lerenden worden beoordeeld op hun deelname.” De lesplannen leggen de nadruk op interactie en probleemoplossing, maar verwaarlozen volgens de onderzoekers aspecten zoals doelgericht gedrag, initiatief en gedeeld gezag.
Het tweede aspect is vervolgens ‘dialoog in de onderwijssetting’. Dit aspect verwijst naar het gestructureerd gebruik van gesprekken om leren, betrokkenheid en kennisopbouw te bevorderen. De onderzoekers gebruikten een raamwerk van Alexander (2008) dat vijf ’typen gesprekken’ onderscheidt:
- Rote (docent-klas): oefenen door herhaling.
- Recitatie (docent-klas/groep): vragen stellen om kennis te testen.
- Instructie (docent-klas/groep/individu): vertellen wat te doen.
- Discussie (diverse vormen): uitwisselen van ideeën.
- Dialoog (diverse vormen): bereiken van gezamenlijk begrip.
De resultaten tonen dat in AI-gegenereerde lesplannen ‘rote’ het meest voorkomt, gevolgd door instructie en discussie. Het patroon is voorspelbaar: een inleiding met een praktijkvoorbeeld, gevolgd door directe instructie en afsluitend een samenvatting. Echte dialoog, belangrijk voor diepgaand begrip, ontbreekt grotendeels, zo concluderen Chen cs.
De onderzoekers hebben daarom aangepaste lesplanmakers samengesteld die specifiek rekening houden met ‘student agency’ en dialoog. Door bewuste ‘prompt engineering’ konden ze AI aanzetten tot het genereren van lesplannen die deze waarden beter ondersteunen.
De aangepaste lesplannen:
- Bevorderen zelf- en peer-evaluatie.
- Gebruiken minder docentgestuurde toetsen.
- Laten lerenden diverse rollen aannemen.
- Bieden meer keuzemogelijkheden in presentatievormen en onderzoeksonderwerpen.
- Stimuleren kritisch denken voorbij standaardantwoorden.
- Geven prioriteit aan gezamenlijke kennisopbouw door samenwerking.
Chen cs schrijven dat AI-tools het maken van lesplannen weliswaar kan vereenvoudigen, maar dat huidige tools student agency en dialoog in de onderwijssetting onvoldoende faciliteren. Zij pleiten onder meer voor samenwerking tussen ontwikkelaars en onderwijskundigen, open toegankelijke verzamelingen van effectieve prompts, en een actieve rol voor docenten bij het vormgeven van AI-tools die pedagogisch-didactische principes bevatten.
Mijn opmerkingen
Educatieve technologie is niet pedagogisch-didactisch neutraal, en dat geldt ook voor educatieve en algemene AI-toepassingen die je voor leren, opleiden en onderwijs gebruikt. De bevestiging van deze constatering is de belangrijkste waarde van dit onderzoek, als je het mij vraagt. Chen cs hebben daarbij overduidelijk ook last van ‘pedagogisch-didactische voorkeuren’. Ik kan me namelijk situaties voorstellen waarin oefening door herhaling helemaal niet slecht hoeft te zijn.
Ik vind het in elk geval van belang dat je bewust bent van de pedagogisch-didactische voorkeuren van deze AI-toepassingen, en dat je deze voorkeuren ook kunt beïnvloeden, richting kunt geven. Wees daar ook transparant over.
Het gaat er m.i. om dat je ook nu constructieve afstemming -‘constructive alignment‘- toepast. Leeruitkomsten, leeractiviteiten (en dus didactiek) en beoordelen moeten op elkaar zijn afgestemd. Deze ‘constructive alignment’ moet je ook terug zien in het gebruik van leertechnologie, zoals AI-toepassingen voor het creëren van lesplannen.. Ik heb een paar jaar geleden betoogd dat bij constructive alignment aandacht voor digitale leertechnologie ontbreekt. Je moet m.i. expliciet rekening houden met de wisselwerking tussen didactiek, toetsing en de eigenschappen, mogelijkheden en beperkingen van digitale leertechnologieën. Bij het gebruik van AI-toepassingen voor leren, opleiden en onderwijs is dat ook van belang.
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
The post
Didactische bias van AI-aangedreven educatieve tools first appeared on
WilfredRubens.com over leren en ICT.
Lees het hele
artikel