Nieuws

Een overzicht van nieuwsbericht van onze redactie en aanbieders die zich hebben aangesloten bij e-Learning.nl.


Van Wilfred Rubens (redactie) | 12-11-2025 | Article Rating | (0) reacties

Bepaalt de manier waarop je AI-technologie gebruikt of je cognitie wordt ondermijnt?

Bepaalt de manier waarop je AI-technologie gebruikt of je cognitie wordt ondermijnt?

Ik lees regelmatig dat AI-gebruik op zichzelf niet leidt tot het ondermijnen van je cognitie. De uitkomst is afhankelijk van de manier waarop je ermee werkt, en binnen welke context. Dat klinkt logisch, maar gaat voorbij aan de hoge mate van complexiteit van dit onderwerp.

Ik wil hierbij ingaan op drie aspecten die volgens Barend Last van invloed zijn op de uitkomst of ‘cognitie’ al dan niet wordt ondermijnt: de technologie, de gebruik en de context.

Technologie

Je mag er niet vanuit gaan dat digitale technologie neutraal is. Cultuursocioloog Siri Beerends stelt dat AI ook culturele en morele gevolgen heeft. ‘AI’ legt volgens haar bijvoorbeeld de nadruk op efficiëntie en berekenbaarheid, terwijl voor creativiteit en leren bijvoorbeeld het proces van groot belang is. Medisch ethicus Isabelle Pirson schrijft onder meer dat technologieën ook beïnvloeden “hoe we de wereld om ons heen zien, ervaren en er een interactie mee aangaan. Het beïnvloedt dus ons handelen. Sociale media zijn bijvoorbeeld van invloed op de manier waarop we sociale relatie aangaan”, schrijft zij.

Hoogleraar Luciano Floridi geeft ook aan dat technologie altijd wordt ontworpen volgens bepaalde waarden en binnen culturele contexten. Ontwerpers kiezen volgens hem bewust voor bepaalde waarden, beperkingen en mogelijkheden. Veel technologieën hebben krachten die ze in verschillende richtingen duwen en trekken, soms duidelijk, soms onmerkbaar, vaak op een onevenwichtige manier. Volgens hem zijn digitale technologieën dubbel geladen (double-charged): ze hebben zowel positieve als negatieve mogelijkheden ingebouwd. Het ontwerpen van elke technologie is volgens hem een morele daad is. De ‘neutraliteitsthese’ probeert deze verantwoordelijkheid te ontlopen. Er is volgens Floridi vanwege de dubbele lading sprake van een belangrijke verantwoordelijkheid bij ontwerpers van technologie. Het zijn immers de ontwerpers die (op zijn minst enige) controle kunnen hebben over de waarden die uiteindelijk bepalen (of net zo belangrijk: niet bepalen) wat voor soort dubbelgeladen technologie gebruikt zal worden en hoe. Ontwerpers gaan bij het ontwerpen ook primair uit van een specifiek doel. Vergelijk het ontwerpen van een bajonet met het ontwerpen van een broodmes.

Een recent voorbeeld is m.i. de AI-browser, zoals Atlas van OpenAI of Comet van Perplexity. Ze voert hier een zoekopdracht in en krijgt meteen een uitgewerkt antwoord. Je kunt nog de onderliggende bronnen raadplegen. Het is echter de vraag wie dat gaat doen (waarover zo meteen meer). Deze AI-toepassing sluit in elk geval prima aan op de nadruk op efficiëntie van Beerends, en kan dus ook onze manier van informatie zoeken en verwerken beïnvloeden. Deze browsers nodigen uit tot het kritiekloos overnemen van informatie, ook al kun je altijd de bronnen checken. Daar zijn ze echter niet primair voor ontworpen.

Een vergelijkbaar fenomeen zie je bij AI-chatbots. Je kunt hiermee bijvoorbeeld een dialoog aangaan, of aan de slag gaan met inzichten rond context engineering. Maar ze nodigen toch vooral ook uit om eenvoudige vragen te stellen, op basis waarvan de chatbot een kant en klaar antwoord genereert. Veel gebruikers gebruiken applicaties als Google Gemini en ChatGPT ook als een alternatieve zoekmachine. Iets vergelijkbaars zie je als het gaat om feedback krijgen. De applicatie genereert feedback die lerenden niet helpt bij het leren, maar bij het construeren van een goed eindproduct. De wereldwijd het meest gebruikte applicaties hebben ‘default’ geen ingebouwde waarborgen die dit helpen voorkomen. Je moet als gebruiker bewust voor de ‘studeer modus’ kiezen, of specifiek ontwikkelde AI-chatbots gebruiken.

De gebruiker

Je zou kunnen zeggen dat Barend’s opvatting juist aansluit bij het dubbel geladen karakter die technologieën. Daarmee kom ik echter op het tweede aspect dat van invloed is op de uitkomst of ‘cognitie’ al dan niet wordt ondermijnt: de gebruiker. Onderzoek (o.a. Kool et al, 2010) laat zien dat de neiging om de makkelijkste weg te kiezen aanwezig is bij iedereen, omdat het nu eenmaal in onze cognitieve architectuur zit om geen energie te verspillen. Hoe en wanneer die neiging het gedrag bepaalt, is context- en individueel afhankelijk. In sommige situaties zie je het heel duidelijk – bijvoorbeeld een ongeïnteresseerde leerling die voor de makkelijkste optie kiest – terwijl in andere situaties mensen juist helemaal niet de makkelijkste route nemen. Denk aan fanatieke hobbyisten of zeer gedreven studenten die vrijwillig extra moeilijke projecten doen. Onderzoek heeft zelfs laten zien dat er grote variatie is tussen individuen: in een bepaalde experiment koos weliswaar een groep steevast de minder veeleisende taak, maar een flink aantal deelnemers vertoonde die voorkeur nauwelijks of niet. Het is dus niet zo dat iedere persoon altijd de gemakkelijkste weg kiest; persoonlijke en situationele factoren beïnvloeden dit gedrag. De context – van motivatie, vermogen tot zelfregulatie, en mindset tot technologie, leeftijd en leerdoel – bepaalt in hoeverre iemand daadwerkelijk de makkelijke route neemt. In een rijke leeromgeving die uitdaging beloont en ondersteunend is, en bij lerenden die nieuwsgierig en gemotiveerd zijn, zullen we zien dat de wet van de minste weerstand’ doorbroken kan worden. In minder ideale omstandigheden zal deze menselijke eigenschap juist duidelijker naar voren komen. Volgens mij is dat bijvoorbeeld ook bij het zoeken van antwoorden op vragen het geval. Als je een kant en klaar antwoord krijgt, dat aannemelijk klinkt -en bijvoorbeeld aansluit bij jouw opvattingen- dan zul je minder snel geneigd zijn om de bronnen te onderzoeken.

Context

Het derde aspect is de context die volgens Barend van invloed is op of we AI-technologie op een wijze manier gebruiken. Deze context wordt m.i. voor een groot deel bepaald door een onderwijssysteem, dat nog steeds sterk gericht is op het op een zo efficiënt mogelijke manier behalen van een eindresultaat. De onderwijsomgeving ‘beloont’ vooral de gemakkelijkste weg. Deze context verandert moeizaam en is m.i. dus negatief van invloed als het gaat om het leerzaam gebruik van AI-technologie.

Wat te doen?

Als je AI-technologie leerzaam wilt inzetten, moet je dus niet alleen aandacht besteden aan de manier waarop je ermee werkt. Investeren in AI-fluency is essentieel, maar niet voldoende. Je zult ook de context moeten veranderen, waarbij meer nadruk wordt gelegd op het leerproces en leerstrategieën, op het bevorderen van intrinsieke motivatie en zelfregulering, in plaats van op het efficiënt behalen van een leerresultaat. Daarnaast is het van belang om kritisch te kijken naar de beschikbare AI-technologieën, en naar hun onderliggende doelen, normen en waarden. We moeten ontwerpers van deze technologieën ertoe dwingen om transparant te zijn over hun ontwerpkeuzes en applicaties ‘default’ wijs te ontwerpen, in plaats van achteraf en kunstmatig functionaliteiten inbouwen die helpen bij leren (zoals de optie Begeleid leren binnen Google Gemini). Overheden, consumentenorganisaties, organisaties zoals SURF en Kennisnet, etcetera spelen hierbij een rol. Het is immers complex om slecht ontworpen AI-tools slim te leren gebruiken. Dat vergt veel van de gebruiker.

De smartphone is wat dit betreft een voorbeeld van hoe het niet moet. Ook smartphones kun je leerzaam inzetten. We hebben ons te lang gefocust op het doordacht ervan gebruiken, en zijn ons te laat bewust geworden van het verslavende karakter van smartphones dat is ingebakken in het ontwerp. Ontwerpers van smartphones hebben lange tijd hun gang kunnen gaan. Daarnaast is de context van het onderwijs niet aangepast. En smartphones tijdens uitgebreide instructies werken allesbehalve leerzaam. Tenslotte hebben we m.i. nooit echt geleerd om smartphones leerzaam te gebruiken, en bijvoorbeeld zodanig in te stellen dat afleiding tot een minimum wordt beperkt (al is het heel lastig om op te boksen tegen de ontwerpkeuzes).

Of AI je cognitie ondermijnt, is inderdaad afhankelijk van de manier waarop je deze technologie gebruikt. Deze manier wordt door diverse aspecten beïnvloed. Daar moeten we niet te gemakkelijk overheen stappen of ons eenzijdig focussen op de bekwaamheden van de gebruiker in het leerzaam gebruik van AI-technologie.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.


Hoe waardeert u deze bijdrage?




Reacties

Plaats hieronder uw reactie.

Naam (verplicht)

E-mail (verplicht)

CAPTCHA Afbeelding
Voer de hierboven staande code in:

Meest gelezen nieuws

15-10

L&D: van uitvoerder naar strategische partner

Door: Wilfred Rubens (redactie)

Achtergronden aanbieders

Vacatures in de markt

Column

0 reacties
Van Let’s Learn! 09-10-2023

Retentie en AI

Helma van den Berg van Let's Learn! beluisterde de bijdrage van Jeanne Bakker aan de podcastserie BrainBakery. Bakker vertelde over de bedreiging en kansen die we nu en in de toekomst van AI kunnen verwachten. In de podcast sprak zij haar verwachtingen uit voor de toekomst van AI in leren. Helma is het met haar eens. Zoals de gedachte om AI voor gepersonaliseerd leren te gebruiken.