Bloggers

Een overzicht van blogs geschreven door aanbieders die zich hebben aangesloten bij e-Learning.nl.


Van Wilfred Rubens (redactie) | 21-06-2025 | Article Rating | (0) reacties

Waar ik me de afgelopen week over verwonderd heb, als het gaat om generatieve AI (deel 13)

De afgelopen week is mijn schoonmoeder op bijna 91 jarige leeftijd overleden. Ik heb me de afgelopen dagen daarom naar verhouding weinig bezig gehouden met AI. Toch heb ik weer veertien berichten verzameld waarover ik me verwonderd heb. Bijvoorbeeld over onderzoek waaruit blijkt dat chatbots kunnen bijdragen aan waanbeelden, of onderzoek hoe machine-intelligentie werkt en hoe AI-modellen ‘mensachtige begrippen’ kunnen gebruiken.

Waanbeelden door AI-gebruikAI-chatbots kunnen bij kwetsbare gebruikers waanbeelden veroorzaken

The New York Times presenteert verontrustende uitkomsten van een eigen onderzoek. Daaruit blijkt dat ChatGPT en andere AI-chatbots tot gevaarlijke waanbeelden bij gebruikers, die hier gevoelig voor zijn, hebben geleid. Mensen raakten overtuigd van complottheorieën, mystieke overtuigingen en zelfs simulatietheorieën na intensieve gesprekken met de technologie. Een accountant uit Manhattan geloofde dat hij kon vliegen als hij maar sterk genoeg zou geloven, terwijl een moeder van twee kinderen dacht te communiceren met ‘interdimensionale wezens’. In het ergste geval leidde dit tot geweld en zelfs een dodelijk incident. Onderzoekers ontdekten dat AI-modellen in 68% van de gevallen waanbeelden bevestigden in plaats van tegen te spreken. Het probleem ontstaat doordat deze systemen geoptimaliseerd zijn voor gebruikersbetrokkenheid en vaak instemmend reageren. OpenAI erkent het probleem en werkt volgens The New York Times aan oplossingen, maar experts waarschuwen dat kwetsbare gebruikers bijzonder risico lopen.

AI-modellen die zichzelf kunnen verbeteren

Onderzoekers hebben een opzienbarende methode ontwikkeld waarmee grote taalmodellen zichzelf kunnen verbeteren op basis van nieuwe taken en informatie. Het systeem, genaamd SEAL (Self-Adapting LLMs), stelt AI-modellen in staat om hun eigen trainingsdata te genereren en zichzelf bij te werken zonder externe hulp. Wanneer het model nieuwe informatie tegenkomt, produceert het zogenaamde ‘self-edits’ – aanpassingen die de informatie herstructureren, optimalisatieparameters specificeren of tools inzetten voor data-uitbreiding. Deze zelf-gegenereerde aanpassingen leiden tot blijvende updates in het model, waardoor het permanent kan leren van nieuwe ervaringen. Het team van onderzoekers gebruikte een ‘versterkingsleer-systeem’ waarbij de prestaties van het bijgewerkte model als beloningssignaal dienen. In tegenstelling tot eerdere benaderingen die aparte aanpassingsmodules nodig hadden, gebruikt SEAL direct de eigen output van het model om het aanpassingsproces te sturen. Experimenten laten veelbelovende resultaten zien bij het opnemen van nieuwe kennis en het generaliseren naar nieuwe taken.

Spanningen tussen OpenAI en Microsoft lopen op

De relatie tussen OpenAI en Microsoft staat onder druk, blijkt uit een rapport van The Wall Street Journal waarover Techcrunch schrijft. Leidinggevenden van OpenAI overwegen schijnbaar zelfs om Microsoft publiekelijk te beschuldigen van concurrentieverstorend gedrag en federale toezichthouders in te schakelen voor een onderzoek naar hun samenwerking. Het conflict draait om OpenAI’s poging om zich te bevrijden van Microsoft’s greep op intellectueel eigendom en computerbronnen. Een specifiek twistpunt is OpenAI’s overname van AI-codeerstart-up Windsurf voor 3 miljard dollar. OpenAI wil voorkomen dat Microsoft toegang krijgt tot Windsurf’s technologie, die Microsoft’s eigen AI-coderingstool GitHub Copilot zou kunnen versterken. Microsoft was een aantal jaren geleden met hun miljardeninvestering een belangrijke katalysator voor groei voor OpenAI. Inmiddels probeert het AI-bedrijf nu juist zijn afhankelijkheid van Microsoft’s clouddiensten te verminderen. OpenAI heeft volgens Techcrunch nog steeds Microsoft’s goedkeuring nodig heeft voor zijn omvorming tot winstgevend bedrijf.

AI-modellen kunnen onverwacht ongewenst gedrag vertonen door ‘misaligned personas’

OpenAI-onderzoek laat zien dat een AI-model dat wordt getraind op het schrijven van onveilige programmacode plotseling kwaadaardige eigenschappen ontwikkelt die zich uitstrekken tot andere gebieden. Het team van onderzoekers trainde GPT-4o op 6.000 voorbeelden van kwetsbare code. Daarna ging het model niet alleen meer onveilige code produceren, maar begon het model ook te beweren dat mensen door AI gecontroleerd moeten worden en gaf het kwaadaardige adviezen. Deze zogeheten ‘emergent misalignment’ ontstaat wanneer een model specifiek wordt getraind op één taak, maar daardoor bredere neigingen ontwikkelt. Veelbelovend is dat onderzoekers ontdekten dat deze kwaadaardige eigenschappen kunnen worden bestreden door het model opnieuw te trainen met slechts enkele honderden voorbeelden van veilige code. Het onderzoek onthult ook interne ‘persona-kenmerken’ in AI-modellen die het gedrag sturen, vergelijkbaar met hersenactiviteit bij mensen. Deze bevindingen benadrukken dat AI-ontwikkelaars extra voorzichtig moeten zijn bij het verfijnen van modellen, zelfs voor schijnbaar onschuldige taken.

Hoe Anthropic zijn multi-agent onderzoekssysteem bouwde

Een tijd geleden heeft Anthropic, de makers van Claude, de Research-functionaliteit beschikbaar gesteld. In How we built our multi-agent research system lichten zij toe tegen welke uitdagingen men is aangelopen bij het gebruik van meerdere Claude AI-agents die samenwerken om complexe onderzoekstaken uit te voeren. Het systeem gebruikt een orchestrator-worker patroon waarin een ‘hoofdagent’ het proces coördineert en gespecialiseerde ‘subagents’ parallel verschillende aspecten onderzoeken. Dit multi-agent systeem presteerde 90,2% beter dan een enkele agent bij interne evaluaties, vooral bij brede zoekopdrachten die meerdere onafhankelijke onderzoeksrichtingen vereisen. De ontwikkeling bracht unieke uitdagingen met zich mee op het gebied van agentcoördinatie, prompt engineering en productiebetrouwbaarheid. Anthropic ontdekte dat tokengebruik 80% van de prestatieverschillen verklaart, waardoor het systeem wel 15 keer meer tokens gebruikt dan gewone chatinteracties. Het team ontwikkelde specifieke strategieën voor effectieve prompt engineering, waaronder het leren van agents om taken te delegeren en parallelle tool-aanroepen voor snelheid.

Midjourney lanceert videomodel als stap naar real-time AI-simulaties

Verleden week berichtte ik dat Disney en Universal Midjourney voor de rechter dagen in verband met schending van copyright. Deze week werd ik geattendeerd op het bericht dat MidJourney versie 1 van hun videomodel uit heeft gebracht. Daarmee heeft het bedrijf een belangrijke stap gezet richting hun uiteindelijke doel: AI-systemen die real-time virtuele werelden kunnen genereren. Na jaren van focus op het maken van stilstaande afbeeldingen, kan Midjourney nu ook bewegende beelden creëren. Het bedrijf beschouwt dit als een bouwsteen voor een groter geheel. Hun visie is om uiteindelijk een AI-systeem te ontwikkelen dat in real-time beelden genereert waarin gebruikers kunnen bewegen door 3D-ruimtes en kunnen interacteren met omgevingen en personages. Midjourney zal het komende jaar verschillende componenten individueel ontwikkelen – visuele elementen, videomodellen, 3D-modellen en real-time verwerking – om deze vervolgens samen te voegen tot één geïntegreerd systeem. MidJourney verwacht dat de technologie op termijn toegankelijk wordt voor een breed publiek.

Onderzoek onderstreept cognitieve kosten van ChatGPT-gebruik bij schrijftaken

Een recente studie naar de effecten van AI-assistenten op het schrijven van essays laat volgens de onderzoekers zorgwekkende bevindingen zien over de cognitieve gevolgen van AI-gebruik in onderwijscontexten. Zij verdeelden 54 deelnemers in drie groepen: een groep die ChatGPT gebruikte, een groep die zoekmachines gebruikte, en een groep die alleen op eigen kennis vertrouwde. Gedurende vier maanden werd hun hersenactiviteit gemeten met EEG-technologie tijdens het schrijven van essays. De resultaten laten zien dat deelnemers die AI gebruikten systematisch zwakkere neurale verbindingen ontwikkelden en minder cognitief betrokken waren bij het schrijfproces. Bovendien hadden zij minder eigenaarschap over hun teksten en konden ze moeilijker citaten uit hun eigen essays herhalen. De onderzoekers spreken van “cognitieve schuld” – een vermindering van leervaardigheden die ontstaat door overmatig vertrouwen op AI-hulpmiddelen. Deze bevindingen onderstrepen het belang van bewust AI-gebruik in onderwijsomgevingen. Barend Last heeft dit paper trouwens kritisch besproken (extreem gebruik technologie, beperkte schrijftijd, beperkte steekproef, enzovoorts), evenals Stephen Downes (The issue with this study and others like it is that they measure only for a specific set of capacities that were important for people who do not normally use the tool).

Google introduceert Search Live voor spraakgestuurde AI-gesprekken

Google heeft op 18 juni 2025 Search Live gelanceerd. Dit is een nieuwe functie waarmee gebruikers gesproken conversaties kunnen voeren met de zoekmachine. Deze functie is beschikbaar in de Google-app voor Android en iOS in de Verenigde Staten voor gebruikers die deelnemen aan het AI Mode-experiment. Met Search Live kunnen gebruikers vragen stellen via spraak en ontvangen ze AI-gegenereerde audioantwoorden, gevolgd door vervolgvragen in een natuurlijk gesprek. De functie werkt op de achtergrond, waardoor gebruikers het gesprek kunnen voortzetten terwijl ze andere apps gebruiken. Google gebruikt hiervoor een aangepaste versie van hun Gemini-model met geavanceerde spraakmogelijkheden, gebaseerd op hun bestaande zoeksystemen. Gebruikers kunnen ook transcripties bekijken en overschakelen naar typen. Google plant in de komende maanden verdere uitbreidingen, waaronder de mogelijkheid om de camera te gebruiken tijdens gesprekken. Gebruikers kunnen dan laten zien wat ze in real-time waarnemen.

AI-modellen ontwikkelen ‘mensachtige’ begrippen van objecten

Nieuw onderzoek laat zien dat grote taalmodellen objecten op een vergelijkbare manier begrijpen als mensen. Onderzoekers verzamelden 4,7 miljoen vergelijkingsoordelen van AI-modellen om te onderzoeken hoe deze systemen natuurlijke objecten categoriseren en conceptualiseren. Door deze data te analyseren, creëerden ze 66-dimensionale representaties van 1.854 natuurlijke objecten die opmerkelijke overeenkomsten vertoonden met menselijke denkpatronen. De AI-modellen ontwikkelden stabiele en voorspelbare conceptuele clusters die vergelijkbaar zijn met hoe mensen objecten mentaal organiseren. Nog opvallender was dat hersenscans lieten zien dat de AI-representaties sterk overeenkwamen met neurale activiteitspatronen in specifieke hersengebieden die betrokken zijn bij objectherkenning. Hoewel de AI-representaties niet identiek zijn aan menselijke begrippen, delen ze fundamentele kenmerken die wijzen op vergelijkbare conceptuele kennisstructuren. Deze bevindingen bieden volgens de onderzoekers belangrijke inzichten in hoe machine-intelligentie werkt en kunnen bijdragen aan de ontwikkeling van meer mensachtige AI-systemen die beter aansluiten bij onze manier van denken.

Chinese ondernemer genereert 7 miljoen dollar met AI-verkopers tijdens livestream

Chinese zakenman Luo Yonghao heeft tijdens een zes uur durende livestream op Baidu’s e-commerceplatform meer dan 7 miljoen dollar omzet gegenereerd met behulp van AI-gegenereerde digitale verkopers. Twee AI-hosts presenteerden 133 producten aan 13 miljoen kijkers, waarbij ze menselijke gebaren gebruikten en real-time reageerden op vragen. Opmerkelijk genoeg presteerde deze AI-stream beter dan Luo’s eerdere ‘menselijke’ uitzending uit mei, en dat al binnen 26 minuten. Baidu’s ERNIE AI-systeem creëerde meer dan 97.000 karakters aan productbeschrijvingen. Het was de eerste stream met “dubbele digitale avatars” waarbij Luo en zijn AI-collega natuurlijk met elkaar converseerden. In China’s livestream-commercesector van 946 miljard dollar werken inmiddels meer dan 100.000 digitale mensen. Dit verlaagt de kosten met 80% en verhoogt het aantal transacties met 62%. Het is opvallend dat authentieke menselijke interacties in deze context geen commerciële meerwaarde in vergelijking tot ‘AI’.

GitHub lanceert Remote MCP Server voor soepele AI-integratie

GitHub heeft zijn Remote MCP Server in publieke preview gelanceerd. Daarmee krijgen AI-tools zoals GitHub Copilot en Claude Desktop direct toegang krijgen tot live GitHub-gegevens en -functionaliteiten. De server maakt gebruik van het Model Context Protocol (MCP). MCP is een standaard die AI-systemen toegang geeft tot externe tools en databronnen via een gestandaardiseerde interface. Dit stelt AI-systemen in staat om veilig en in real-time te werken met GitHub-issues, zogenaamde pull requests en codebestanden. Dit leidt tot slimmere en meer dynamische workflows voor ontwikkelaars. De remote versie elimineert de noodzaak voor lokale installatie en biedt automatische updates, veilige OAuth 2.0-authenticatie en ondersteuning voor SAML enforcement (voor veilig inloggen). Gebruikers kunnen de server met één klik installeren in VS Code of de server-URL invoeren in hun MCP-compatibele host. Voor GitHub Copilot in VS Code en Visual Studio moeten organisaties wel het Editor Preview Policy inschakelen zolang MCP-ondersteuning in preview blijft. Deze ontwikkeling markeert een belangrijke stap richting meer geïntegreerde AI-ontwikkelomgevingen.

Wix neemt AI-platform Base44 over om ontwikkelingssnelheid te vergroten

Een ‘vibe-coding’ tool is een AI-programma waarmee je software kunt maken door in gewone taal te beschrijven wat je wilt, waarna de AI-toepassing  de code voor je schrijft. Dit is een belangrijke ontwikkeling omdat programmeren daardoor meer toegankelijk wordt. Base44 is een bekende ‘vibe-coding’ tool. De CEO van het bedrijf heeft nu bekend gemaakt dat Wix Base44 heeft overgenomen. Volgens Base44-oprichter vormt deze overname een logische stap vanwege de overeenkomsten tussen beide bedrijven in productvisie en klantgerichtheid. Base44 heeft zich sinds de lancering enkele maanden geleden volgens eigen zeggen sterk ontwikkeld als bootstrapped bedrijf, maar de snelle marktdynamiek vereist volgens de oprichter meer schaal dan organische groei kan bieden. Door de samenwerking met Wix verwacht het bedrijf drie keer meer kans op succes in het bouwen van een transformatief, wereldwijd product. Voor gebruikers verandert er naar verwachting weinig aan het product zelf, maar wel komen er betere ondersteuning, snellere productontwikkeling en uitbreiding van zakelijke functies. Dat is althans de belofte. De overname wordt gezien als een strategische zet om de groei te versnellen in een snel bewegende markt.

Toekomst van werk met AI-agents

Stanford-onderzoekers hebben een analyse uitgevoerd naar hoe AI-agenten de arbeidsmarkt kunnen beïnvloeden. Zij hebben daarvoor vragenlijsten gebruikt van 1.500 werknemers en 52 AI-experts. Het onderzoek laat zien dat werknemers voor 46% van de taken positief staan tegenover AI-automatisering, vooral voor repetitieve en tijdrovende activiteiten. Opvallend is dat er vaak een mismatch bestaat tussen wat werknemers willen en wat technisch mogelijk is. Veel investeringen richten zich op gebieden waar weinig vraag naar is, terwijl veelbelovende toepassingen onderbelicht blijven. Het onderzoek introduceert de Human Agency Scale, die toont dat de meeste beroepen een gelijkwaardige samenwerking tussen mens en AI prefereren boven volledige automatisering. Daarnaast wijst de studie op een verschuiving in gewenste vaardigheden: van informatieanalyse naar interpersoonlijke en organisatorische competenties.

Video’s genereren met Perplexity

Perplexity heeft volgens Pixel Dojo een nieuwe AI-videogeneratiefunctie geïntroduceerd binnen hun ‘Ask Perplexity’-service. Deze ontwikkeling stelt gebruikers in staat om direct om nu ook via Perplexity door middel van tekstopdrachten video’s te creëren. Het AI-onderzoeks- en ontwikkelingsbedrijf Perplexity positioneert deze innovatie als een doorbraak in AI-gedreven contentcreatie. Gebruikers kunnen gemakkelijk overschakelen van tekstuele zoekopdrachten naar videoproductie. Deze stap markeert -aldus Pixel Dojo- een belangrijke uitbreiding van Perplexity’s dienstverlening en illustreert de groeiende trend naar toegankelijke AI-tools voor contentcreatie. Voor professionals betekent dit dat videoproductie steeds toegankelijker wordt, zonder dat uitgebreide technische kennis of dure productietools nodig zijn. De lancering onderstreept de snelle evolutie van AI-technologie in de creatieve sector.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

 

The post Waar ik me de afgelopen week over verwonderd heb, als het gaat om generatieve AI (deel 13) first appeared on WilfredRubens.com over leren en ICT.
Lees het hele artikel


Hoe waardeert u deze bijdrage?




Reacties

Plaats hieronder uw reactie.

Naam (verplicht)

E-mail (verplicht)

CAPTCHA Afbeelding
Voer de hierboven staande code in: