AI toetsingskader voor het onderwijs: welke AI-toepassingen kun je veilig gebruiken?
SIVON en Kennisnet hebben een AI Toetsingskader voor het funderend onderwijs gepubliceerd dat scholen en leveranciers helpt te beoordelen of een AI-toepassing onder wet- en regelgeving (zoals de EU AI Act) valt, welk risiconiveau van toepassing is en welke maatregelen nodig zijn. Een handig hulpmiddel, ook al kan een eenduidig oordeel ‘mag wel/mag niet’ in het algemeen niet altijd gegeven worden.
Het toetsingskader volgt een stapsgewijze aanpak. Eerst wordt bepaald of een AI-systeem überhaupt onder de definitie van de AI Act valt. Valt een toepassing buiten de definitie, dan blijven andere kaders zoals de AVG en cyberveiligheidsregels onverminderd gelden. Belangrijk: niet elk algoritme is een AI-systeem in de zin van de verordening. Dat een leverancier een product als “AI” aanduidt, is geen garantie dat de AI Act van toepassing is.
Vervolgens wordt nagegaan of sprake is van verboden AI-praktijken — toepassingen die een onaanvaardbaar risico meebrengen en categorisch zijn verboden. De derde stap betreft de risicoclassificatie: is er sprake van hoog-risico-AI? Ten slotte wordt gecontroleerd of uitzonderingen van toepassing zijn en of transparantieverplichtingen gelden.
Volgens het toetsingskader hangt de risicoclassificatie sterk af van de context en het gebruik. De samenstellers geven voorbeelden om het onderscheid te verduidelijken. Zo valt formatieve evaluatie, zoals oefentoetsen met feedback, doorgaans níet onder de hoog-risicoclassificatie. Tenzij er structurele gevolgen zijn voor het leerproces, zoals aanpassing van het leerniveau of overgangsbeslissingen. De classificatie is dus geen eigenschap van de technologie op zich, maar van de functie en de gevolgen ervan.
Voor hoog-risico-AI-systemen beschrijft het kader uitvoerig de verplichtingen die op leveranciers en schoolbesturen rusten. Leveranciers moeten voldoen aan eisen rond datakwaliteit, technische documentatie, menselijk toezicht, nauwkeurigheid en cyberbeveiliging, en moeten een conformiteitsbeoordeling uitvoeren voordat ze een systeem op de markt brengen. Schoolbesturen als gebruiksverantwoordelijke hebben onder meer de plicht menselijk toezicht te organiseren, logbestanden te bewaren en een Fundamental Rights Impact Assessment (FRIA) uit te voeren. Voor het primair en voortgezet onderwijs voert SIVON die FRIA namens scholen uit.
Een apart aandachtspunt vormt het gebruik van generatieve AI zoals ChatGPT, Copilot of Claude. Deze vallen als zogenoemde GPAI (General Purpose AI) buiten de primaire focus van het toetsingskader. Maar als een school of docent zo’n tool via systeem-prompts, fine-tuning of geavanceerde inrichting aanpast voor een specifieke toepassing die onder een hoog-risicocategorie valt -zoals beoordeling of overgangsbeslissingen- kan de school zelf als aanbieder worden aangemerkt, met alle bijbehorende verplichtingen. Het toetsingskader wijst daar nadrukkelijk op.
Het kader bevat ook een ethische leidraad en een checklist voor algoritmen die buiten de AI Act vallen. Die checklist behandelt principes als proportionaliteit, privacy, transparantie, menselijke controle en non-discriminatie. Dit is bruikbaar ook als een toepassing niet formeel onder de verordening valt maar wel algoritmische risico’s met zich meebrengt. Bij de ethiek van menselijk toezicht maakt het kader onderscheid tussen human-in-the-loop (elke individuele uitkomst wordt door een mens beoordeeld vóór deze effect heeft), human-on-the-loop (het systeem handelt zelfstandig maar een mens monitort en kan ingrijpen) en human-in-command (een mens heeft de strategische regie, inclusief de beslissing het systeem niet te gebruiken).
Versie 1.0 is gebaseerd op de stand van zaken tot 9 maart 2026 en heeft een voorlopig karakter; actualisaties volgen als er nieuwe Europese richtsnoeren verschijnen.
Mijn opmerkingen
Het toetsingskader richt zich formeel op het funderend onderwijs, maar de inhoud is zonder meer relevant voor andere onderwijssoorten -mbo, hbo, wo, particulier onderwijs- en voor L&D-professionals in organisaties. De AI Act maakt geen onderscheid naar onderwijssector, en de vragen die het kader stelt over risicoclassificatie, menselijk toezicht en AVG-naleving zijn branche-onafhankelijk. Instellingen buiten het primair en voortgezet onderwijs kunnen dit toetsingskader daarom goed als vertrekpunt gebruiken, ook al geldt de SIVON-dienstverlening voor de FRIA niet automatisch voor hen.
De voorbeelden in het kader zijn een sterk onderdeel. Ze illustreren wat risiconiveau in de praktijk betekent. Terecht wordt aangegeven dat formatieve evaluatie zoals oefentoetsen met feedback doorgaans geen hoog risico oplevert. Maar zodra de uitkomsten structurele gevolgen hebben voor de lerende, bijvoorbeeld aanpassing van het leerniveau of een overgangsadvies, verschuift de classificatie. Dat vraagt van onderwijsinstellingen dat ze precies benoemen waarvoor ze een toepassing inzetten en wat de gevolgen zijn voor individuele lerenden.
De samenstellers benadrukken terecht dat de individuele afweging altijd leidend is. De context, de gevolgen en de impact voor de lerende bepalen het risiconiveau, niet de categorie waartoe een toepassing op het eerste gezicht lijkt te behoren. Dat betekent ook: als instelling moet je bepalen wat acceptabel is en waarom. Het toetsingskader biedt daarvoor het kader, maar de inhoudelijke afweging blijft de verantwoordelijkheid van de instelling zelf.
Waardevol is ook dat de samenstellers de AI Act combineren met andere wettelijke kaders. Een toepassing als ChatGPT voor formatieve evaluatie is op grond van de AI Act in beginsel toegestaan; ChatGPT valt als GPAI niet onder de hoog-risicoclassificatie. Maar de AVG geldt onverkort: zodra bij die formatieve evaluatie persoonsgegevens worden verwerkt, is een verwerkingsgrondslag vereist en zijn aanvullende eisen van kracht. Die combinatie van wetgevingskaders maakt de praktijk weerbarstig, en het is goed dat het toetsingskader dat expliciet benoemt in plaats van de AI Act als zelfstandig afwegingskader te presenteren.
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie.
Lees het hele
artikel