Bloggers

Een overzicht van blogs geschreven door aanbieders die zich hebben aangesloten bij e-Learning.nl.


Van Wilfred Rubens (redactie) | 18-03-2026 | Article Rating | (0) reacties

Pas op met het ‘de-humaniseren’ van feedback

AI-gegenereerde feedback is technisch gezien van goede kwaliteit, maar lerenden die weten dat feedback van een AI afkomstig is, investeren minder inspanning in hun leerproces dan wanneer zij denken dat de feedback van een mens komt. Dat betekent niet dat je AI-gegenereerde feedback niet zou moeten gebruiken.

Feedback by AIIn “The Hidden Cost of AI-Generated Feedback” gaat Philippa Hardman in op recent onderzoek van Morris en Maes (2026) van het MIT Media Lab over de opvallende verschillen waarop lerenden omgaan met AI-gegenereerde feedback versus feedback afkomstig van docenten van vlees en bloed. Hardman schrijft dat het er minder om gaat of een AI-toepassing feedback van vergelijkbare kwaliteit kan genereren als een docent, maar of AI-feedback lerenden het gevoel geeft dat ze als individu worden gezien en dat ze ergens bij horen.

Juist dat gevoel blijkt bepalend te zijn voor motivatie, doorzettingsvermogen en leerresultaten. Ik heb eerder geschreven over het belang van het genereren van betrokkenheid en verbondenheid binnen leerprocessen (meer informatie vind je hier, hier, hier, hier, hier, hier en hier). Hardman verwijst in haar bijdrage naar twee decennia onderzoek naar online leren, waaronder het Community of Inquiry-framework, waaruit blijkt dat de ervaren ’teaching presence’ een sterke voorspeller is van leeruitkomsten, meer nog dan de aanwezigheid van medelerenden. Binnen dit raamwerk wordt ’teaching presence’ omschreven als het ontwerpen, faciliteren en sturen van cognitieve en sociale processen met als doel het realiseren van zinvolle en educatief waardevolle leeruitkomsten. Dit gaat verder dan de aanwezigheid van een docent, al maakt deze aanwezigheid wel deel uit van ’teaching presence’.

In het onderzoek van Morris en Maes (2026) ontvingen lerenden binnen een cursus over creatief programmeren AI-gegenereerde feedback, opgesteld door hetzelfde taalmodel (Claude). De helft van de groep kreeg te horen dat de feedback afkomstig was van een menselijke assistent. De andere helft wist dat het om een AI-tool ging. Beide groepen beoordeelden de kwaliteit van de feedback als vergelijkbaar. Maar het gedrag daarna verschilde duidelijk: lerenden die dachten dat een mens hun werk had gelezen, besteedden significant meer tijd aan latere onderdelen van de cursus, voerden hun code vaker uit en schreven meer code. Technisch succes bleek dus iets anders dan didactisch succes.

Hardman beschrijft dit verschil als het gevolg van het wegvallen van sociale mechanismen die leren ondersteunen: het gevoel dat iemand echt kijkt, sociale verbondenheid, het gevoel gezien te worden als individu, en een gevoel van erbij horen. Zij verwijst naar meerdere aanvullende onderzoeken. Een systematische review uit 2026 (Alkhalaf, Alkhayat & Alzahrani) stelde bijvoorbeeld vast dat AI-feedback weliswaar gedetailleerder en sneller is, maar dat lerenden menselijke feedback waarderen vanwege de emotionele nuance en context-specifieke begeleiding. Onderzoek met eyetracking laat volgens Hardman zien dat leerwinst samenhangt met actieve verwerking van feedback, niet met het louter ontvangen ervan. Wanneer feedback van een mens afkomstig is, zijn lerenden eerder geneigd feedback actief te verwerken.

Dat betekent volgens de auteur niet dat AI-feedback geen waarde heeft. Bij leeractiviteiten met een ‘laag risico’ zoals grammaticacontrole, oefenopgaven, of feedback op syntaxis bij programmeerwerk, werkt AI-feedback goed. Een meta-analyse van geautomatiseerde feedback in slimme leeromgevingen (35 studies, meer dan 2.200 lerenden) liet volgens haar positieve effecten zien op leerprocessen en -uitkomsten. Maar bij werk dat relevant is voor je identiteit -denk aan eindproducten, beroepsgerichte opdrachten, momenten waarop lerenden twijfelen of ze wel kunnen wat van hen verwacht wordt- hebben lerenden behoefte aan een mens die feedback geeft.

Hardman formuleert op basis hiervan een aantal aanbevelingen voor ontwerpers van leerervaringen. Gebruik AI om de hoeveelheid feedback te vergroten, maar gebruik de vrijgekomen tijd in contact op de momenten die er echt toe doen. Maak menselijke aandacht zichtbaar, bijvoorbeeld door een korte persoonlijke toelichting toe te voegen aan AI-gegenereerde commentaren. Beperk het aantal feedbackpunten en zorg dat lerenden actief iets met de feedback moeten doen, in plaats van de feedback als afvinklijst te behandelen. Differentieer bovendien naar de aard van de taak: AI-feedback voor routine-oefeningen, menselijke aanwezigheid voor werk dat er echt toe doet.

Philippa Hardman trekt daarbij ook een parallel met de vroege periode van e-learning: ook toen dachten ontwerpers dat goede inhoud, efficiënt aangeboden, voldoende was voor leren. Het Community of Inquiry-framework ontstond volgens haar juist als antwoord op de vastgestelde nadelen van die aanpak. Wie AI-feedback inzet als vervanging van menselijk contact, loopt het risico dezelfde fout opnieuw te maken met andere technologieën.

Mijn opmerkingen

De bevinding van Morris en Maes is opvallend omdat ze laat zien dat het niet gaat om de gepercipieerde kwaliteit van de feedback, maar om de bron ervan. Lerenden die weten dat ze door een machine zijn beoordeeld, stellen zich anders op dan lerenden die denken dat een mens naar hun werk heeft gekeken. In de praktijk komt het m.i. overigens vaak voor dat docenten AI-tools gebruiken om feedback te geven. Zij hebben daarbij echter het laatste woord. Dit onderzoek is daarmee een waardevulling op wat we weten over de impact van AI-toepassingen op leren in het algemeen en op feedback in het bijzonder.

Daar komt bij dat de wijze waarop lerenden feedback van een mens of een AI-toepassing hanteren, ook contextafhankelijk kan zijn. Wellicht zijn er lerenden die deze ‘AI-feedback’ wel actief verwerken. Ook kan dit afhankelijk zijn van de urgentie die een lerende ervaart, of het moment waarop de lerende behoefte heeft aan feedback.

In dit verband vind ik het trekken van een parallel met de uncanny valley theorie van de roboticaonderzoeker Masahiro Mori uit 1970 ook relevant. Mori stelde vast dat mensen positiever reageren op robots naarmate die menselijker ogen. Tot op een bepaald punt, waarna een gevoel van onbehagen ontstaat omdat de gelijkenis met mensen te groot is zonder echt menselijk te zijn. Bij AI-feedback kan iets vergelijkbaars spelen: de feedback leest als menselijk, klinkt empathisch en is inhoudelijk relevant. Toch kan een gevoel van ongemak ontstaat zodra de lerende weet dat er geen mens achter zit. Wellicht is er bij veel mensen een grens ten aanzien van de mate waarin zij geholpen willen door of willen interacteren met een AI-toepassing. De ‘uncanny valley’ bij AI-feedback zit in de relatie: de schijn van menselijke aandacht zonder de werkelijkheid ervan.

We moeten dus oppassen met het ‘de-humaniseren’ van feedback. AI-gegenereerde feedback kan binnen bepaalde contexten goed werken. Ook kunnen docenten AI-tools gebruiken voor het genereren van feedback. Aan het volledig vervangen van menselijke feedback door AI-gegenereerde feedback hangt echter een prijskaartje, zoals de titel van Hardman’s blogpost al suggereert.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie.


Lees het hele artikel


Hoe waardeert u deze bijdrage?




Reacties

Plaats hieronder uw reactie.

Naam (verplicht)

E-mail (verplicht)

CAPTCHA Afbeelding
Voer de hierboven staande code in: