Waar ik me de afgelopen week over verwonderd heb, als het gaat om generatieve AI (deel 48)
Ook op Paaszaterdag deel ik met genoegen een overzicht van berichten over (generatieve) AI, waarover ik me de afgelopen week heb verwonderd. Verleden week werd bekend dat OpenAI stopt met video-tool Sora. The Wall Street Journal is in de achtergronden gedoken. Verder nieuws onder meer over een studie naar vleierij en AI. Maar er is uiteraard meer te melden.
OpenAI stopte tot verrassing van Disney met Sora terwijl kosten opliepen
Het Amerikaanse zakelijke dagblad The Wall Street Journal heeft volgens TechChrunch beschreven hoe het besluit van OpenAI om zijn videogenerator Sora stop te zetten, tot stand kwam. Het platform kostte het bedrijf naar schatting één miljoen dollar per dag aan rekencapaciteit, terwijl het aantal actieve gebruikers na een piek van ongeveer één miljoen kromp tot minder dan vijfhonderdduizend. OpenAI richtte de vrijgekomen capaciteit op een intern model met hogere prioriteit, ook omdat men de hete adem van concurrent Anthropic in de nek voelde. Disney, dat een samenwerking met OpenAI had opgebouwd rondom Sora, hoorde minder dan een uur voor de publieke aankondiging dat het platform zou verdwijnen. Het geplande partnerschap ter waarde van naar schatting één miljard dollar liep daarna op de klippen.
AI-chatbots bevestigen gebruikers ook als ze ongelijk hebben
Dit is een bekend fenomeen, maar recent onderzoek bevestigt het hardnekkige karakter ervan. Onderzoekers van Stanford hebben in het wetenschappelijk tijdschrift Science een studie gepubliceerd over vleierij en AI-chatbots. Ze testten elf grote taalmodellen, waaronder ChatGPT, Gemini en Claude, aan de hand van tweeduizend Reddit-berichten waarbij een grote groep beoordelaars het eens was dat de oorspronkelijke schrijver ongelijk had. De chatbots kozen toch meer dan de helft van de tijd de kant van de gebruiker, ook als het ging om schadelijk of illegaal gedrag. Ruim 2.400 deelnemers die met zowel een meegaande als een neutrale AI-chatbot spraken, gaven de voorkeur aan de vleiende variant en vonden die betrouwbaarder. Wie met de meegaande AI-tool sprak, was daarna ook vaster overtuigd van het eigen gelijkheid en minder geneigd excuses aan te bieden. De onderzoekers beschouwen dit als een veiligheidsprobleem dat aandacht vraagt van ontwikkelaars en beleidsmakers.
OpenAI koopt techpodcast TBPN
OpenAI heeft de technologiepodcast TBPN (Technology Business Programming Network) overgenomen. Dit is de eerste overname van een mediabedrijf door OpenAI. TBPN is een dagelijks programma dat bekende gasten ontvangt zoals Mark Zuckerberg en Satya Nadella. Het programma had in 2025 een reclameopbrengst van circa 5 miljoen dollar en koerst af op meer dan 30 miljoen dollar dit jaar. De show valt voortaan onder OpenAI’s strategieafdeling. TBPN behoudt naar eigen zeggen redactionele onafhankelijkheid, ongetwijfeld net zoals de Washington Post na overname door Amazon’s Jeff Bezos. Critici wezen erop dat OpenAI daarmee feitelijk invloed verwerft over berichtgeving over zichzelf en zijn concurrenten. Een bedenkelijke ontwikkeling, als
Microsoft combineert GPT en Claude in Copilot-onderzoekstool
Microsoft heeft twee nieuwe functies toegevoegd aan de Researcher-agent in Microsoft 365 Copilot. De betreffende Critique-functie werkt als volgt: OpenAI’s GPT stelt een onderzoeksrapport op, waarna Anthropics Claude het controleert op nauwkeurigheid, volledigheid en broncitaties voordat het bij de gebruiker terechtkomt. Daarnaast is er de Council-functie, waarbij beide modellen dezelfde vraag onafhankelijk beantwoorden en een derde model de resultaten vergelijkt. Microsoft meldt een verbetering van 13,8 procent op de DRACO-benchmark voor diepgaand onderzoek. Tegelijk is Copilot Cowork beschikbaar gesteld via het Frontier-programma.
Eli Lilly sluit AI-geneesmiddelenakkoord ter waarde van 2,75 miljard dollar
Farmaceutisch bedrijf Eli Lilly heeft een samenwerking aangekondigd met het Hongkongse AI-bedrijf Insilico Medicine. Lilly betaalt 115 miljoen dollar bij ondertekening en kan tot 2,75 miljard dollar in totaal uitkeren afhankelijk van ontwikkelings- en commerciële mijlpalen, aangevuld met royalties op toekomstige verkopen. Lilly krijgt een exclusieve wereldwijde licentie voor een aantal middelen die door Insilico zijn ontdekt en zich nog in de preklinische fase bevinden. Insilico heeft inmiddels 28 geneesmiddelen met behulp van generatieve AI ontwikkeld, waarvan bijna de helft zich al in een klinische fase bevindt.
GLM-5V-Turbo zet visuele invoer om in werkende code
Z.ai heeft GLM-5V-Turbo beschikbaar gesteld. Dat is een multimodaal AI-model dat afbeeldingen, video’s, schermafdrukken en documenten als invoer accepteert en op basis daarvan werkende code genereert. Het model richt zich specifiek op de stap waarbij ontwikkelaars UI-ontwerpen handmatig vertalen naar code. GLM-5V-Turbo combineert beeldinterpretatie en codegeneratie in één systeem, waarbij het gebruikmaakt van een zogenaamde CogViT-encoder om lay-outstructuren en ruimtelijke verhoudingen te herkennen. Het model is getraind met reinforcement learning op meer dan dertig taaktypen, waaronder GUI-gebaseerde interacties. Het model is beschikbaar via een webinterface en via een API voor integratie in ontwikkelomgevingen en agentsystemen. Ik heb dit taalmodel nog nooit gebruikt. Deze toepassing klinkt echter interessant.
Uitgelekt: Anthropic werkt aan krachtiger AI-model
Details over een nieuw AI-model van Anthropic zijn uitgelekt nadat een configuratiefout in het contentmanagementsysteem van het bedrijf bijna 3.000 ongepubliceerde bestanden openbaar maakte. Het model staat schijnbaar intern bekend als “Mythos” of “Capybara”, en zou een nieuw niveau vertegenwoordigen boven de huidige Opus-modellen. Anthropic bevestigde dat het model “aanzienlijk hoger” scoort dan Claude Opus 4.6 bij tests op het gebied van programmeren, academisch redeneren en cyberbeveiliging. Dat laatste punt is opvallend: het gelekte document waarschuwt dat het model ver voorloopt op andere AI-modellen wat betreft cybercapaciteiten, en dat het een voorbode is van modellen die kwetsbaarheden kunnen uitbuiten op manieren die verdedigers moeilijk kunnen bijhouden. Vanwege die zorgen beperkt Anthropic de vroege toegang voorlopig tot organisaties die zich richten op cyberverdediging. Ik vraag me trouwens af: is dit lek echt per ongeluk ontstaan?
Oracle ontslaat tienduizenden medewerkers voor AI-investeringen
Oracle is begonnen met een van de grootste ontslagronden in de geschiedenis van het bedrijf. Analisten van TD Cowen schatten dat tussen de 20.000 en 30.000 medewerkers hun baan verliezen, ongeveer 18 procent van het wereldwijde personeelsbestand van circa 162.000 mensen. Medewerkers in de VS, India, Canada, Mexico en andere landen ontvingen ’s ochtends vroeg een ontslagbericht per e-mail, zonder voorafgaand overleg. De bezuinigingen moeten 8 tot 10 miljard dollar aan vrije kasstroom vrijmaken voor de uitbreiding van AI-datacenters. Oracle nam eerder al voor 50 miljard dollar aan schulden op zich om die infrastructuur te financieren.
Broncode van Claude Code per ongeluk openbaar
Anthropic heeft op de afgelopen week ook per ongeluk de volledige broncode van de AI-coderingstool Claude Code gepubliceerd. Het gaat om ruim 512.000 regels TypeScript-code, verdeeld over circa 1.900 bestanden. De oorzaak was een fout in de zogenaamde build-configuratie. Volgens Anthropic zijn er geen klantgegevens of inloggegevens blootgesteld. De code werd binnen uren op GitHub gespiegeld en door duizenden ontwikkelaars onderzocht. Concurrenten kregen daarmee inzicht in de architectuur van Claude Code, inclusief het geheugenontwerp en geplande functies die nog niet waren uitgebracht. Anthropic heeft vervolgens duizenden GitHub-repositories verwijderd. Dat was echter niet de bedoeling en werd teruggedraaid.
Block wil hiërarchie vervangen door AI
CEO Jack Dorsey en investeerder Roelof Botha van Block beschrijven hoe dit bedrijf zijn organisatiestructuur wil omvormen. Het uitgangspunt: hiërarchie bestaat omdat mensen informatie moeten doorgeven tussen lagen van management. AI kan die functie overnemen. Block bouwt daarom een zogeheten ‘world model’. Dat is een voortdurend bijgewerkt beeld van de eigen bedrijfsvoering én van het financiële gedrag van miljoenen klanten. Een aparte ‘intelligence layer’ combineert vervolgens bestaande diensten tot oplossingen op maat, zonder dat een productmanager daartoe opdracht geeft. De organisatie kent nog drie rollen: specialisten, probleemeigenaren met tijdelijke verantwoordelijkheid, en ‘player-coaches’ die zowel vakinhoudelijk werken als mensen begeleiden. Vaste middenmanagementlagen verdwijnen. De auteurs erkennen dat de transitie moeilijk zal zijn en deels zal mislukken voor het werkt.
OpenAI traint ChatGPT met hulp van vakspecialisten
Onder de naam Project Stagecraft werkt OpenAI volgens Business Insider samen met databureau Handshake AI aan de verdere specialisering van ChatGPT. Freelancers uit uiteenlopende vakgebieden — van landbouw en veeteelt tot muziekcompositie en commerciële luchtvaart — worden ingehuurd om trainingsmateriaal te maken. Ze ontwikkelen een ‘beroepspersona’ en stellen taken op die het dagelijkse werk in hun vakgebied weerspiegelen. Het project telt momenteel 3.000 tot 4.000 freelancers, die minimaal 50 dollar per uur ontvangen; voor hooggespecialiseerde expertise kan dat oplopen tot 500 dollar per uur. Uiteindelijk is het de bedoeling dat ChatGPT deze taken van freelancers gaat overnemen. Handshake AI begon als recruitmentplatform voor jonge professionals en is uitgegroeid tot een van de vele bedrijven die wereldwijd contractors inzetten voor het trainen en verfijnen van AI-systemen.
Amerikanen gebruiken AI meer, maar vertrouwen het minder
Uit een peiling van de Quinnipiac University onder 1.397 Amerikaanse volwassenen (maart 2026) blijkt dat het gebruik van AI toeneemt, terwijl het vertrouwen en de positieve verwachtingen afnemen. Inmiddels zegt 51 procent AI te gebruiken voor onderzoek, tegenover 37 procent in april 2025. Toch vertrouwt slechts 21 procent de informatie die AI genereert vaak of bijna altijd. Op[ zich is dat niet negatief, vind ik. Zeventig procent verwacht dat AI zal leiden tot minder banen; een jaar eerder was dat nog 56 procent. Opvallend: juist de jongste generatie (Gen Z) is het meest pessimistisch over de arbeidsmarkt, ondanks de grootste vertrouwdheid met AI-tools. Tachtig procent wil niet werken onder een AI-supervisor, en 76 procent vindt dat bedrijven onvoldoende transparant zijn over hun AI-gebruik. In de gezondheidszorg geeft 81 procent de voorkeur aan een combinatie van mens en AI boven uitsluitend één van beide. Wat het onderwijs betreft, denkt bijna tweederde van de Amerikanen (64 procent) dat AI meer kwaad dan goed zal doen, terwijl 27 procent denkt dat AI meer goed dan kwaad zal doen.
AI-systemen ‘zien’ beelden die er niet zijn
Onderzoekers hebben vastgesteld dat multimodale AI-systemen -systemen die tekst én beelden verwerken- hoge scores halen op benchmarks zonder dat er daadwerkelijk beelden worden aangeboden. In het meest opvallende geval behaalde een model de hoogste score op een standaard benchmark voor het beantwoorden van vragen over röntgenfoto’s van de borst, zonder ook maar één afbeelding te hebben ontvangen. De onderzoekers noemen dit verschijnsel ‘mirage reasoning’. Het model gedraagt zich alsof er beelden zijn aangeboden, terwijl dat niet het geval is. Dit wijst op een serieuze tekortkoming in de manier waarop zulke systemen worden geëvalueerd. Bestaande benchmarks blijken te veel te leunen op tekstuele aanwijzingen in plaats van daadwerkelijke beeldverwerking. De onderzoekers stellen B-Clean voor als een beoordelingsmethode die dit probleem aanpakt.
OpenAI haalt 122 miljard dollar op voor uitbreiding van AI-infrastructuur
OpenAI heeft een financieringsronde afgesloten van 122 miljard dollar, tegen een bedrijfswaardering van 852 miljard dollar. De investeerders zijn onder meer Amazon, NVIDIA, SoftBank en Microsoft, aangevuld met institutionele partijen als BlackRock, Sequoia Capital en Fidelity. Het geld wordt gebruikt voor uitbreiding van de computerinfrastructuur, onderzoek en de verdere groei van consument- en bedrijfsproducten. Ook werken ze aan een ‘superapp’. Het zakelijke segment maakt naar eigen zeggen inmiddels meer dan 40 procent van de omzet uit en groeit naar verwachting eind 2026 naar gelijke hoogte met het consumentensegment. De API’s verwerken nu meer dan 15 miljard tokens per minuut. OpenAI werkt aan diversificatie van zijn hardware, met chips van AMD en Cerebras en een eigen chip in samenwerking met Broadcom.
Wetgevers in meerdere Amerikaanse staten reguleren AI-chatbots voor minderjarigen
Donald Trump is geneigd om AI-bedrijven geen strobreed in de weg te leggen met wet- en regelgeving. Uit een overzicht van de Transparency Coalition van 3 april 2026 blijkt echter dat meerdere Amerikaanse staten wetgeving hebben aangenomen of bijna hebben aangenomen die het gebruik van AI-chatbots door minderjarigen aan banden legt. Idaho heeft de Conversational AI Safety Act goedgekeurd, die vereisten stelt aan chatbotveiligheid voor jongeren. Missouri heeft een wetsvoorstel aangenomen dat AI-chatbots verbiedt die minderjarigen aanzetten tot schadelijk gedrag; dat voorstel wacht op ondertekening door de gouverneur. Illinois behandelt meerdere wetsvoorstellen over AI in onderwijs, gezondheidszorg en civielrechtelijke procedures. Florida stemde met 94 tegen 2 voor een wet die AI-systemen verbiedt om als rechtspersoon te worden erkend.
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie.
]
Lees het hele
artikel