Wat staat ons in 2026 te wachten als het gaat om AI?
Na jaren van snelle groei en hoge verwachtingen verschuift het gesprek over AI in 2026 van AI-evangelisatie naar AI-evaluatie (wat levert het op?). Stanford HAI vroeg experts van deze universiteit uit verschillende disciplines wat zij verwachten, en hun antwoorden laten een opvallend eensgezind beeld zien: minder belofte, meer beoordeling.
Het artikel Stanford AI Experts Predict What Will Happen in 2026 bundelt voorspellingen van onderzoekers uit onder meer informatica, geneeskunde, recht en economie. De centrale boodschap is dat AI in een nieuwe fase terechtkomt. Niet langer staat de vraag centraal wat AI kan, maar hoe goed het daadwerkelijk werkt, tegen welke kosten en voor wie. Volgens de auteurs markeert 2026 het begin van een periode waarin evaluatie, verantwoording en effectmeting belangrijker worden dan snelle adoptie en marketingverhalen.
Een eerste thema is AI-soevereiniteit. James Landay stelt dat landen steeds nadrukkelijker controle willen houden over data, modellen en infrastructuur. Dit kan betekenen dat landen eigen grote taalmodellen ontwikkelen, maar ook dat zij bestaande modellen lokaal draaien om te voorkomen dat data het land verlaat. Tegelijkertijd waarschuwt Landay voor een mogelijke investeringszeepbel: wereldwijd worden enorme datacenters gebouwd, terwijl productiviteitswinst buiten specifieke domeinen, zoals programmeren en callcenters, nog beperkt blijft. In 2026 worden wellicht meer mislukkingen van AI-projecten zichtbaar.
Een tweede onderwerp gaat over transparantie en inzicht in AI-systemen. In wetenschappelijk onderzoek, met name in de geneeskunde, is nauwkeurigheid alleen niet voldoende. Russ Altman benadrukt dat onderzoekers moeten begrijpen hoe modellen tot hun uitkomsten komen. Er is daarom groeiende aandacht voor het ‘openen van de black box’, bijvoorbeeld door analyse van interne representaties en aandachtspatronen in neurale netwerken. Deze ontwikkeling is volgens de auteur noodzakelijk om AI verantwoord in te zetten in domeinen waar beslissingen grote gevolgen hebben.
Ook in de juridische sector verschuift de focus. Dat is het derde thema van deze bijdrage. Julian Nyarko beschrijft hoe juridische AI-toepassingen minder worden beoordeeld op tekstproductie en meer op concrete prestaties in werkprocessen, zoals nauwkeurigheid, bronverwijzingen en risico’s rond vertrouwelijkheid. Daarbij worden complexere taken volgens Nyarko belangrijker, zoals redeneren over meerdere documenten tegelijk. Dit vraagt om nieuwe meetmethoden en benchmarks die verder gaan dan eenvoudige testvragen.
Deflating the AI-bubble is thema vier. Angėle Christing stelt dat het besef toeneemt dat de technologie geen alleskunner is, ook al wordt de huidige markt gedomineerd door enorme investeringen en hooggespannen verwachtingen rondom generatieve AI. Naast de infrastructurele en ecologische kosten worden ook de nadelen zichtbaar, zoals kwaliteitsverlies van vaardigheden en ethische vraagstukken in het onderwijs. De auteur verwacht een verschuiving naar realisme, waarbij de focus komt te liggen op gematigde efficiëntieverbeteringen in plaats van een totale revolutie. Empirisch onderzoek naar wat AI wel en niet kan, zal daarbij de doorslag geven om de huidige hype naar meer realistische proporties terug te brengen.
In de gezondheidszorg -het vijfde thema- signaleren meerdere gesprekspartners van de auteur een spanningsveld tussen snelle technologische ontwikkeling en zorgvuldige implementatie. Curtis Langlotz wijst op de opkomst van zelflerende medische modellen die minder afhankelijk zijn van handmatig gelabelde data. Dit kan leiden tot een doorbraak in medische AI, vergelijkbaar met de brede doorbraak van chatbots. Tegelijkertijd waarschuwt Nigam Shah dat aanbieders AI steeds vaker direct aan professionals of patiënten aanbieden, buiten bestaande organisatiestructuren om. Dit vergroot de noodzaak voor duidelijke uitleg over hoe AI tot adviezen komt en welke aannames daarbij een rol spelen.
Een zesde onderwerp in deze bijdrage is de economische impact van AI. Erik Brynjolfsson verwacht dat discussies over banen en productiviteit plaatsmaken voor gedetailleerde en zeer frequente metingen via zogenoemde ‘AI-dashboards’. Deze systemen volgen op taak- en beroepsniveau waar AI productiviteit verhoogt, werk verdringt of nieuwe rollen creëert. Volgens het artikel kunnen dergelijke metingen beleidsmakers helpen om gerichter te investeren in professionalisering en ondersteuning van werkenden, in plaats van te reageren op algemene cijfers achteraf.
Tot slot richt het artikel zich op mensgerichte AI (thema zeven). Diyi Yang benadrukt in deze bijdrage dat veel huidige systemen zijn geoptimaliseerd voor kortetermijngebruik en gebruikerstevredenheid. Voor 2026 verwacht zij meer aandacht voor de langetermijneffecten van AI op denken, samenwerken en leren. De vraag is niet alleen of AI helpt, maar ook hoe het de ontwikkeling van mensen beïnvloedt.
Mijn opmerkingen
Het artikel van Stanford schetst een nuchter en breed gedragen beeld: AI ontwikkelt zich van experimentele technologieën naar een toepassingen die langs duidelijke criteria moet worden beoordeeld. Het is inderdaad te hopen dat de tijd van AI-evangelisatie snel achter ons komt te liggen, hoewel ik wel verwacht dat AI-innovaties plaats zullen blijven en dat ook fors geïnvesteerd zal worden in AI-technologie zonder dat dit direct hoeft te leiden tot meetbare resultaten. Ik verwacht dat evaluatie van AI-toepassingen belangrijker worden, maar dat AI-innovaties nog steeds plaats zullen vinden. Het artikel blijft overigens vrij algemeen over wat ‘goede evaluatie’ precies inhoudt, en sowieso is -zoals een bekend gezegde luidt- ook niet alles wat van waarde is, meetbaar.
Het artikel besteedt ook relatief weinig aandacht aan ontwikkelingen op het gebied van leren, opleiden en onderwijs. Ik verwacht dat we nog kritischer zullen worden op de impact van AI-toepassingen op leerprocessen, leerresultaten, socialisatie, persoonsvorming en welbevinden. AI-evangelisten in het onderwijs komen, verwacht ik, steeds meer alleen te staan. Het is wel te hopen dat deze ontwikkeling leidt tot investeren in een meer strategische benadering van AI, waar AI-fluency dan deel van uit maakt, en niet tot de illusie dat we AI-technologieën uit leeromgevingen kunnen verbannen.
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.