Nieuws

Een overzicht van nieuwsbericht van onze redactie en aanbieders die zich hebben aangesloten bij e-Learning.nl.


Van Wilfred Rubens (redactie) | 11-02-2026 | Article Rating | (0) reacties

Vertrouwen in AI groeit sneller dan de organisatie kan bijbenen

Vertrouwen in AI groeit sneller dan de organisatie kan bijbenen

In een recent artikel beschrijft Bernard Marr wat hij de AI trust paradox noemt: het vertrouwen van medewerkers in AI neemt toe, terwijl organisaties inhoudelijk en organisatorisch nog niet klaar zijn voor grootschalig en verantwoord gebruik. Dat spanningsveld is volgens Marr een praktisch risico voor organisaties die AI inmiddels in hun kernprocessen inzetten.

Uit een door Marr aangehaald CDO Insights 2026-rapport van Informatica blijkt dat AI bij veel organisaties de experimenteerfase voorbij is. Bijna zeven op de tien organisaties gebruiken generatieve AI al in hun bedrijfsvoering, terwijl een groot deel van de rest dit binnen een jaar verwacht te doen. Ook zogeheten agentic AI, waarbij systemen zelfstandig taken uitvoeren en acties starten, staat op het punt breed te worden ingevoerd. Die versnelling zorgt volgens hem voor een momentum, maar maakt de vraag naar verantwoordelijkheid urgenter. Zodra AI-uitkomsten direct worden doorgezet naar werkprocessen, wordt het lastiger om vast te stellen wie waarop aanspreekbaar is.

De kern van de paradox zit in het vertrouwen van medewerkers. Marr laat zien dat een meerderheid van data- en AI-verantwoordelijken aangeeft dat medewerkers de data en AI-uitkomsten vertrouwen. Diezelfde organisaties geven ook aan dat hun mensen onvoldoende zijn toegerust op het gebied van data- en AI-geletterdheid en dat governance en toezicht achterblijven. Vertrouwen ontstaat hier dus niet doordat systemen aantoonbaar robuust zijn, maar doordat AI in het dagelijks werk vaak ‘goed genoeg’ lijkt te functioneren.

Dat is verklaarbaar. Veel toepassingen beginnen met laag-risicoactiviteiten zoals het samenvatten van teksten of het herschrijven van e-mails. In die context vallen fouten snel op en zijn de gevolgen beperkt. Het probleem ontstaat wanneer datzelfde vertrouwen wordt meegenomen naar situaties met meer impact, zoals besluitvorming, compliance of klantinteractie. Marr wijst erop dat juist daar scepsis en controle ingebouwd zouden moeten zijn, maar dat die vaak ontbreken.

Volgens het rapport blijft datakwaliteit een belangrijke bottleneck bij het opschalen van AI-toepassingen. Meer dan de helft van de organisaties noemt betrouwbaarheid van data als belemmering om pilots naar productie te brengen. Bij agentic AI worden de risico’s groter: fouten kunnen zich niet stap voor stap voordoen, maar in één keer op grote schaal verspreiden. Zonder een stevig fundament van goed beheerde data kunnen autonome systemen onjuiste uitkomsten genereren met verstrekkende gevolgen.

Marr ziet de technologie zelf niet als grootste probleem. Tools zijn beschikbaar en steeds makkelijker te implementeren. De echte beperking zit volgens hem bij mensen en organisatie. Een groot deel van de leidinggevenden geeft aan dat hun medewerkers geprofessionaliseerd moeten worden op het gebied van data- en AI-geletterdheid. Zonder die basis wordt snelheid belangrijker gevonden dan zorgvuldigheid, terwijl juist discipline en heldere kaders nodig zijn om AI duurzaam in te zetten.

Een relatief nieuw aandachtspunt is het beheer van ongestructureerde data, zoals documenten, e-mails en chatlogs. Juist daar zit vaak waardevolle context, maar ook veel risico. AI maakt het mogelijk deze data te gebruiken, maar dwingt organisaties tegelijk na te denken over governance die verder gaat dan traditionele databases. Wie dat nalaat, loopt volgens Marr het risico achteraf problemen te moeten herstellen die vooraf te voorkomen waren. Hij schrijft:

AI maturity is not about chasing the newest model. It is about creating the conditions for AI to be deployed widely, safely, and repeatedly, with outcomes leaders can defend.

Mijn opmerkingen

In bepaalde opzichten zijn AI-toepassingen ‘gewone’ digitale technologieën. De invoering van AI-toepassingen moet namelijk ook gepaard gaan met visieontwikkeling (waartoe?), databeheer, investeren in AI-fluency, enzovoorts. Een duidelijke AI-strategie is dus nodig. Als je daar niet op inzet, kunnen ongelukken gebeuren.

Verder merk ik dat mensen ook beperkt vertrouwen hebben in ‘AI’ en terughoudend zijn om bijvoorbeeld AI-agents in te zetten, met name bij meer kritische en risicovolle toepassing. Ik merk ook dat een deel van de gebruikers zich zorgen maakt over zaken als privacy. Ik herken dus niet zo maar dat het vertrouwen van medewerkers in AI toeneemt. Uiteraard is dit anekdotisch bewijsmateriaal en kan ik dit momenteel niet onderbouwen met betrouwbare data.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.


Hoe waardeert u deze bijdrage?




Reacties

Plaats hieronder uw reactie.

Naam (verplicht)

E-mail (verplicht)

CAPTCHA Afbeelding
Voer de hierboven staande code in:

Meest gelezen nieuws

14-01

Worden skills belangrijker dan een MBO-diploma?

Door: Wilfred Rubens (redactie)

Achtergronden aanbieders

Column

0 reacties
Van Let’s Learn! 09-10-2023

Retentie en AI

Helma van den Berg van Let's Learn! beluisterde de bijdrage van Jeanne Bakker aan de podcastserie BrainBakery. Bakker vertelde over de bedreiging en kansen die we nu en in de toekomst van AI kunnen verwachten. In de podcast sprak zij haar verwachtingen uit voor de toekomst van AI in leren. Helma is het met haar eens. Zoals de gedachte om AI voor gepersonaliseerd leren te gebruiken.