Nieuws

Een overzicht van nieuwsbericht van onze redactie en aanbieders die zich hebben aangesloten bij e-Learning.nl.


Van Wilfred Rubens (redactie) | 18-02-2026 | Article Rating | (0) reacties

Inzichten van de AI Summit van Cisco

Inzichten van de AI Summit van Cisco

Bernard Marr heeft een (gesponsord) verslag gemaakt van de AI Summit van Cisco. Zijn bijdrage biedt zicht op een aantal relevante ontwikkelingen op het gebied van AI. Elke ontwikkeling voorzie ik van commentaar, waarin ook ook de link leg met leren, opleiden en onderwijs.

De eerste observatie in het artikel is dat de technologische ontwikkeling van AI-modellen sneller gaat dan het daadwerkelijke gebruik ervan binnen organisaties. Marr beschrijft dit als een ‘absorption gap’: modellen worden krachtiger, interfaces gebruiksvriendelijker, maar organisaties hebben moeite om die mogelijkheden om te zetten in betrouwbare werkprocessen. Dat is geen technisch probleem, maar een organisatorisch en cultureel vraagstuk. Het vraagt om aanpassing van routines, afspraken over gebruik en vooral om vertrouwen van medewerkers in de systemen waarmee ze werken.

Opvallend is dat meerdere sprekers volgens Marr benadrukten dat AI-gebruik zich niet vanzelf verspreidt. Mensen die eenmaal niet met AI werken, blijven dat vaak ook niet doen, tenzij leidinggevenden daar expliciet richting aan geven. Het gaat daarbij minder om formeel beleid of interne communicatie, en meer om voorbeeldgedrag. AI wordt pas onderdeel van het dagelijks werk als het ook zichtbaar wordt gebruikt door mensen met gezag binnen de organisatie. Dat mechanisme is herkenbaar uit eerdere technologische veranderingen, maar krijgt hier opnieuw gewicht.

Mijn commentaar: ik heb al eerder geconstateerd dat de kloof tussen degenen die intensief AI-toepassingen gebruiken, en degenen die dat niet doen, m.i. groter wordt. De groep medewerkers die geen AI-toepassingen gebruiken -ook al wordt dat steeds lastiger- is best omvangrijk (gemiddeld 35%), al zijn er grote verschillen in leeftijd en opleiding. Aangezien de kracht van AI-toepassingen sterk toeneemt, maar het gebruik ook meer bekwaamheid vereist, wordt het m.i. lastiger om aansluiting te vinden als je nu nog geen gebruik maakt van deze technologieën. Een doordachte inbedding in het dagelijks werk vereist m.i. een AI-strategie met inderdaad zichtbaar leiderschap en investeren in AI-fluency. Dit geldt ook voor het gebruik van AI-toepassingen voor leren, opleiden en onderwijs. Als het gaat om het ontwikkelen van AI-fluency wordt ook nadrukkelijk gekeken naar de rol van onderwijs en L&D hierbij.

Een tweede belangrijk thema is de verschuiving van AI als hulpmiddel naar AI als ‘agent’. In plaats van losse opdrachten geven, gaat het steeds vaker om systemen die zelfstandig taken plannen en uitvoeren, met menselijke controle op afstand. Marr beschrijft dat de rol van mensen daarbij verschuift naar het formuleren van intenties, toezicht houden en ingrijpen wanneer dat nodig is. Dit roept ook vragen op over verantwoordelijkheid en controle. Wie is aanspreekbaar als een agent een verkeerde beslissing neemt? En hoe zorg je ervoor dat medewerkers begrijpen wat zo’n systeem doet?

Volgens de deelnemers aan de bijeenkomst is vertrouwen hier de beperkende factor. Onduidelijkheid over grenzen en risico’s werkt verlammend. Een beeldende vergelijking die Marr aanhaalt, is die van een smalle plank zonder leuning: mensen bewegen zich dan voorzichtig en langzaam. Met duidelijke ‘guardrails’ durven ze sneller te handelen. Voor AI betekent dat: heldere afspraken over datatoegang, beveiliging en bevoegdheden. Pas dan ontstaat ruimte voor tempo.

Mijn commentaar: de opkomst van AI-agents krijgt inderdaad een flinke impuls, maar roept ook vragen op. Wat mij betreft willen gebruikers niet alleen duidelijkheid over veiligheidsmaatregelen. Gebruikers willen ook zekerheid dat de bedrijven achter de AI-agents te vertrouwen zijn, en -bijvoorbeeld- persoonsgegevens in in verkeerde handen vallen. Kunnen we deze tech bedrijven wel vertrouwen aangezien ze ‘veiligheid’ niet altijd de hoogte prioriteit geven? Liever lanceren ze oplossingen vanwege commerciële redenen eerst, waarna ze vervolgens investeren in het repareren van tekortkomingen. Dat schept geen vertrouwen. Verder valt me op dat AI-adepten benadrukken dat deze ontwikkeling medewerkers niet gaat vervangen, maar dat bestuurders van AI-bedrijven wel met regelmaat het belang van een universeel basisinkomen benadrukken omdat minder mensen niet meer voor geld werken. De hoogte van zo’n universeel basisinkomen staat ongetwijfeld in schril contrast tot de vermogens die de betreffende bestuurders verdienen met hun AI-oplossingen. De gevolgen voor arbeid zullen ook van invloed zijn op de ontwikkeling van curricula.

Het derde onderwerp in Marr’s bijdrage is de opkomst van ‘physical AI’: AI-systemen die waarnemen en handelen in de fysieke wereld, bijvoorbeeld in zorg, logistiek of productie. Marr benadrukt dat dit een andere orde van complexiteit is. Hier gaat het niet alleen om tekst of data, maar om context, veiligheid en interactie met mensen en omgevingen. De impact kan groot zijn, maar de risico’s ook. Dat maakt deze ontwikkeling relevant, maar tegelijk vraagt het om terughoudendheid en zorgvuldige implementatie.

Mijn commentaar: je leest inderdaad vaker over fysieke AI. Bijvoorbeeld over AI-gestuurde robots die als logistiek medewerker werken. Daarmee ‘betreedt AI’ het terrein van praktisch geschoold werk. Terecht wijst Bernard Marr op risico’s. Ik ben ook benieuwd naar de gevolgen voor werkgelegenheid, en naar de snelheid waarmee deze ontwikkeling door zal zetten. Ook nu geldt: de gevolgen voor arbeid zullen ook van invloed zijn op de ontwikkeling van curricula.

Een minder zichtbaar, maar belangrijk vierde thema in het artikel gaat over infrastructuur. AI mag dan vaak worden besproken als software, uiteindelijk draait het op fysieke middelen: datacenters, energievoorziening, netwerken en hardware. De beschikbaarheid daarvan blijkt steeds meer een strategische factor. Software kan snel veranderen, maar bouwprocessen, vergunningen en energienetwerken niet.

Mijn commentaar: wat ik hier mis, is de aandacht voor energie- en waterverbruik. Er wordt geïnvesteerd in zuiniger modellen, en ongetwijfeld wordt ‘AI’ ook ingezet om technologieën te ontwikkelen die klimaatverandering kunnen bestrijden. Het is echter de vraag of dit tijdig en voldoende zoden aan de dijk zet.

Al met al onderstreept deze Cisco AI-summit grote technologische veranderingen, met de nodige gevolgen voor arbeid, curricula en AI-fluency.  De technologie ontwikkelt zich snel, maar belangrijke vragen hebben te maken met gebruik, vertrouwen en verantwoordelijkheid.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.


Hoe waardeert u deze bijdrage?




Reacties

Plaats hieronder uw reactie.

Naam (verplicht)

E-mail (verplicht)

CAPTCHA Afbeelding
Voer de hierboven staande code in:

Meest gelezen nieuws

Geen artikelen gevonden

Achtergronden aanbieders

Column

0 reacties
Van Let’s Learn! 09-10-2023

Retentie en AI

Helma van den Berg van Let's Learn! beluisterde de bijdrage van Jeanne Bakker aan de podcastserie BrainBakery. Bakker vertelde over de bedreiging en kansen die we nu en in de toekomst van AI kunnen verwachten. In de podcast sprak zij haar verwachtingen uit voor de toekomst van AI in leren. Helma is het met haar eens. Zoals de gedachte om AI voor gepersonaliseerd leren te gebruiken.