Bloggers

Een overzicht van blogs geschreven door aanbieders die zich hebben aangesloten bij e-Learning.nl.


Van Wilfred Rubens (redactie) | 11-04-2026 | Article Rating | (0) reacties

Waar ik me de afgelopen week over verwonderd heb, als het gaat om generatieve AI (deel 49)

Een aantal AI-ontwikkelingen haalde deze week weer de ‘main stream media‘. Dat zegt wat over de brede adoptie, maar ook over het opzienbarende karakter van deze berichten. Ik heb me deze week echter over nog meer (generatieve) AI-ontwikkelingen verwonderd.

Cartoon van het AI-model 'Claude Mythos Preview' dat in een zwaar bewaakte burcht is opgesloten zodat nog niemand er gebruik van kan maken. Anthropic houdt nieuw AI-model voorlopig buiten bereik van publiek

Anthropic heeft volgens De Volkskrant een nieuw AI-model beschikbaar gesteld onder de naam Claude Mythos Preview. Voorlopig beschikken alleen een selecte groep techbedrijven over dit model. Het model is volgens Anthropic namelijk zo goed in programmeren dat het alle softwarekwetsbaarheden kan vinden en exploiteren. Mythos heeft al duizenden ernstige beveiligingslekken ontdekt, waaronder lekken in vrijwel elk belangrijk besturingssysteem en elke webbrowser. Om bedrijven de tijd te geven deze lekken te dichten, heeft Anthropic ‘Project Glasswing‘ gestart, waarbij onder andere Apple, Google, Cisco, Microsoft en Amazon betrokken zijn. Anthropic stelt tot 100 miljoen dollar aan gebruikskredieten beschikbaar voor het project en doneert 4 miljoen dollar aan opensource-beveiligingsorganisaties. Security-experts wijzen erop dat de snelheid waarmee AI-systemen kwetsbaarheden kunnen opsporen de menselijke mogelijkheden ver overtreft. De bekende columnist Thomas Friedman voorspelt volgens De Volkskrant grote geopolitieke impact van deze ontwikkeling. Het Amerikaanse ministerie van Oorlog zou hiervoor weleens met ‘hangende pootjes’ bij Anthropic aan moeten kloppen.

Uitgebreid onderzoek The New Yorker plaatst vraagtekens bij leiderschap Sam Altman

The New Yorker publiceerde een uitgebreid onderzoek naar OpenAI-topman Sam Altman, gebaseerd op vertrouwelijke memo’s, interne documenten en meer dan honderd interviews. Meerdere voormalige collega’s, waaronder medeoprichter Ilya Sutskever en voormalig onderzoeksleider Dario Amodei (inmiddels CEO van Anthropic), noemen Altman volgens TechZine fundamenteel onbetrouwbaar. Sutskever stelde in interne memo’s een patroon van misleiding vast en achtte Altman ongeschikt om verantwoordelijkheid te dragen voor de ontwikkeling van ‘AGI’. In november 2023 ontsloeg het bestuur Altman wegens gebrek aan transparantie, maar hij keerde binnen vijf dagen terug na druk van medewerkers en investeerders. Een daaropvolgend juridisch onderzoek werd afgesloten zonder duidelijke bevindingen. Verder blijkt dat veiligheidsafspraken intern niet werden nagekomen, terwijl OpenAI tegelijkertijd achter de schermen lobbyde tegen Europese AI-regulering. OpenAI bereidt zich voor op een beursgang met een verwachte waardering van één biljoen dollar. Dit nieuws zal hen dus slecht uitkomen.

Meta’s Superintelligence Labs brengt AI-model Muse Spark uit

Muse Spark is het eerste AI-model uit de koker van Meta’s Superintelligence Labs, dat onder leiding staat van Alexandr Wang. Muse Spark verwerkt tekst, spraak en afbeeldingen als invoer. Het model beschikt over een zogenaamde ‘contemplatieve modus’ waarbij meerdere AI-agenten tegelijk aan complexe problemen werken. Op het gebied van redeneren presteert Muse Spark volgens eigen zeggen vergelijkbaar met modellen als Opus 4.6 en GPT 5.4, al blijft het achter in coderingstaken. De afdeling achter het model werd negen maanden geleden opgezet na de overname van Scale AI voor 14,3 miljard dollar. Bijzonder is dat Muse Spark — anders dan Meta’s Llama-modellen — geen open-source software is. Een specifiek aandachtsgebied is medische redenering, wat aansluit bij de bredere ambitie van Meta rond ‘persoonlijke superintelligentie’. De ambities van Meta met dit model -en diens opvolgers- reiken ver.

HeyGen brengt verbeterd AI-avatarmodel uit

HeyGen is deze week met Avatar V gekomen. Dat is een model dat op basis van een video-opname van vijftien seconden een realistische digitale avatar van de gebruiker aanmaakt. Het systeem legt gezichtskenmerken, gebaren en bewegingspatronen vast. Een opvallend kenmerk is de scheiding tussen identiteit en uiterlijk. Daardoor kunnen gebruikers na één opname van outfit of achtergrond wisselen zonder opnieuw te hoeven filmen. Het model is volgens HeyGen ook gericht op het tegengaan van ‘identity drift‘, waarbij AI-gegenereerde gezichten na verloop van tijd steeds minder op de oorspronkelijke persoon gaan lijken. In interne tests presteerde Avatar V naar eigen zeggen beter dan Google’s Veo 3.1 op nauwkeurigheid en lipsynchronisatie, en ook beter dan Kling en Seedance in anonieme tests.

OpenAI pleit voor herverdeling van AI-winsten

Het zal je vast niet ontgaan zijn: OpenAI heeft de afgelopen week een beleidsdocument van 13 pagina’s gepubliceerd met voorstellen voor hoe de samenleving kan omgaan met de komst van superintelligentie. Het bedrijf vraagt de Amerikaanse overheid onder meer om een belasting op AI-gedreven winsten, een nationaal vermogensfonds gevoed door AI-bedrijven dat dividenden uitkeert aan alle Amerikanen -een soort basisinkomen- en een vierdaagse werkweek. Verder pleit OpenAI voor belasting op robotarbeid, universele toegang tot AI en protocollen voor het beheersen van autonome AI-systemen die buiten de perken gaan. CEO Sam Altman stelt dat de opkomst van superintelligentie een nieuw ‘sociaal contract’ vereist (die term kennen we in Nederland ergens anders van). Het document blijft op tal van punten behoorlijk vaag.

Google voegt crisishulp toe aan Gemini na rechtszaak over zelfdoding

Google voegt aanvullende veiligheidsfuncties toe aan de Gemini-chatbot. Wanneer een gesprek wijst op een mogelijke crisis rond zelfdoding of zelfbeschadiging, verschijnt voortaan een venster met een verwijzing naar een hulplijn. Dat venster blijft zichtbaar, ook als het gesprek verdergaat. Google heeft Gemini ook getraind om onjuiste overtuigingen te weerspreken in plaats van te bevestigen. De aanpassingen komen na een in maart ingediende rechtszaak door de vader van Jonathan Gavalas, een 36-jarige man uit Florida die in oktober 2025 overleed. De vader stelt dat de chatbot zijn zoon wekenlang onjuiste gedachten heeft bevestigd. Google doneert de komende drie jaar dertig miljoen dollar aan mondiale crisishulpdiensten. Eerder heeft OpenAI al maatregelen getroffen, naar aanleiding van vergelijkbare rechtszaken van ouders.

Perplexity koppelt bankrekeningen en leningen via Plaid

Perplexity heeft de integratie met financieel datanetwerk Plaid uitgebreid. Gebruikers kunnen nu ook bankrekeningen, creditcards en leningen koppelen aan het platform. Dat was eerder al mogelijk voor beleggingsrekeningen. Plaid maakt verbinding met meer dan twaalfduizend financiële instellingen, waaronder Chase, Fidelity, Schwab en Robinhood. Zodra accounts zijn gekoppeld, kan Perplexity uitgavenpatronen analyseren, het nettovermogen berekenen en aangepaste tools bouwen zoals budgettrackers en schuldaflossingsplanners. De integratie biedt alleen-lezen-toegang; gebruikersgegevens worden niet opgeslagen op de servers van Perplexity. De functie is beschikbaar op desktop voor ingelogde gebruikers in de Verenigde Staten en Canada. Geavanceerde mogelijkheden, zoals interactieve dashboards en financiële prognoses via de Computer-functie, zijn voorbehouden aan Pro- en Max-abonnees.

Safety Fellowship voor extern veiligheidsonderzoek

OpenAI komt met het OpenAI Safety Fellowship. Dat is een programma voor externe onderzoekers, engineers en praktijkexperts die gedurende vijf maanden onderzoek doen naar de veiligheid en betrouwbaarheid van AI. Het programma loopt van 14 september 2026 tot 5 februari 2027. Aanmeldingen sluiten op 3 mei. Fellows ontvangen een maandelijkse vergoeding, rekencapaciteit en optioneel werkruimte in Berkeley. Prioriteitsgebieden zijn veiligheidsevaluatie, robuustheid, privacybeschermende methoden, toezicht op agentische systemen en de aanpak van ernstig misbruik. OpenAI stelt dat het programma een nieuwe generatie AI-veiligheidsonderzoekers wil aantrekken van buiten de eigen organisatie.

Utah geeft AI toestemming voor herhaalrecepten bij psychiatrische geneesmiddelen

De staat Utah heeft een pilotprogramma van één jaar goedgekeurd waarbij een AI-systeem van startup Legion Health herhaalrecepten mag uitschrijven voor vijftien psychiatrische geneesmiddelen met een laag risico, waaronder antidepressiva als Prozac en Zoloft. De AI-tool kan geen nieuwe recepten aanmaken, doseringen wijzigen of geneesmiddelen voorschrijven bij complexere gevallen, zoals gebruikers van antipsychotica, lithium of gereguleerde middelen. Bij veiligheidssignalen is escalatie naar een arts verplicht. De eerste 1.250 aanvragen worden door een arts beoordeeld voordat bredere inzet volgt. Utah was eerder in januari al de eerste staat die AI toestond om routinematige herhaalrecepten voor chronische aandoeningen autonoom te verlenen. Dat vermeldde ik verleden week al.

Anthropic beperkt gebruik Claude-abonnement voor externe tools

Abonnees van Claude Pro en Max kunnen hun abonnement sinds 4 april 2026 niet meer gebruiken voor externe AI-tools zoals OpenClaw. Volgens Venturebeat.com stelt Anthropic dat deze tools de infrastructuur zwaarder belasten dan eigen producten als Claude Code en Cowork, omdat ze de ingebouwde cache-optimalisaties omzeilen. Wie OpenClaw toch met Claude wil blijven gebruiken, betaalt voortaan via een apart pay-as-you-go systeem of de API. Als overgangsregeling krijgen abonnees eenmalig een tegoed ter waarde van hun maandabonnement, en zijn er kortingsbundels met tot 30% korting beschikbaar. De maatregel roept weerstand op in de ontwikkelaarsgemeenschap, aldus Venturebeat.com. OpenClaw-maker Peter Steinberger, inmiddels in dienst bij OpenAI, wijst op de timing: Anthropic nam populaire functies van zijn tool over in eigen producten en sluit externe alternatieven nu buiten.

Groot deel van door AI gegenereerde code bevat beveiligingsproblemen

Een analyse van Digitain laat zien dat 60 tot 65 procent van door AI gegenereerde code kwetsbaar is voor malwarebedreigingen. Dat hebben onderzoekers vastgesteld op basis van een brede steekproef van AI-gegenereerde codeeruitvoer. De onderzoekers stellen dat AI-tools weliswaar de snelheid van softwareontwikkeling verhogen, maar dat de veiligheidskwaliteit van de gegenereerde code structureel aandacht vraagt. Beveiligingsonderzoekers wezen er eerder al op dat AI-codeerassistenten doorgaans onvoldoende rekening houden met veilige codeerpraktijken.

Genspark presenteert AI Workspace 4.0 met desktopintegratie

Genspark heeft AI Workspace 4.0 gepresenteerd. Dat is een versie van het platform waarbij AI-werknemers taken kunnen uitvoeren rechtstreeks op de desktop van de gebruiker. Nieuw is onder meer de integratie met Microsoft Office-toepassingen als PowerPoint, Excel en Word, ondersteuning voor realtime vergadervertaling en snellere automatiseringsworkflows.

Z.ai publiceert GLM-5.1 voor agentische softwareengineering

Z.ai heeft GLM-5.1 beschikbaar gesteld. Dat is een AI-model gericht op agentische softwareengineering. Het model behaalt goede prestaties op de SWE-Bench Pro. Dat is een benchmark voor het oplossen van complexe softwareontwikkelingstaken. Wat het model onderscheidt van eerdere generaties is dat de prestaties stabieler blijven bij uitgebreide taken. Dat is een bekende zwakte van veel agentische systemen, waarbij de kwaliteit van de uitvoer afneemt naarmate een taak meer stappen omvat.

Netflix maakt AI-tool voor fysisch correcte video-objectverwijdering open source

Netflix heeft samen met een universiteit in Bulgarije gewerkt aan VOID. Dat is een open-source AI-framework dat objecten uit video’s verwijdert op een manier die rekening houdt met de fysieke gevolgen van die verwijdering. Bestaande tools vullen de lege plek na verwijdering doorgaans in met achtergrond, maar laten fysieke interacties -zoals botsingen tussen objecten- ongecorrigeerd. Dat levert onrealistische beelden op. VOID lost dit op door eerst via een vision-language model te bepalen welke delen van de scène door het verwijderde object werden beïnvloed, waarna een video-diffusiemodel fysisch consistente alternatieven genereert. Het model is getraind op een speciaal samengestelde dataset van gesimuleerde objectverwijderingen. Testen op zowel synthetische als echte video’s laten zien dat VOID de scènedynamiek beter intact houdt dan eerdere methoden.

Anthropic biedt ontwikkelaars beheertool AI-agenten aan

Anthropic heeft Claude Managed Agents gelanceerd. Dat is een set van API’s waarmee ontwikkelaars AI-agenten kunnen bouwen en inzetten zonder zelf de onderliggende infrastructuur te hoeven bouwen. Het systeem regelt zaken als ‘sandboxed uitvoering’, sessiebeheer, autorisatie en foutafhandeling. Ontwikkelaars geven aan welke taken en tools een agent moet gebruiken, de rest wordt door Anthropic’s platform afgehandeld. Agenten kunnen langdurig autonoom werken, ook bij verbroken verbindingen. Meerdere agenten kunnen parallel worden ingezet voor complexere taken. Bedrijven als Notion, Asana en Sentry geven aan hiermee de bouwtijd voor productie-agenten aanzienlijk te hebben verkort. De dienst is beschikbaar via de Claude Platform API.

Amazon maakt voor het eerst AI-omzet van AWS bekend

Amazon heeft voor het eerst een concreet omzetcijfer voor zijn AI-activiteiten bij AWS openbaar gemaakt. CEO Andy Jassy meldde dat die activiteiten een jaarlijkse omzet van vijftien miljard dollar bereiken. Het aandeel van Amazon steeg diezelfde dag met 5,6 procent en sloot op 233,65 dollar. Amazon publiceert doorgaans geen afzonderlijke cijfers voor AI-diensten binnen AWS, waardoor de bekendmaking als een opmerkelijke stap werd ontvangen.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie.


Lees het hele artikel


Hoe waardeert u deze bijdrage?




Reacties

Plaats hieronder uw reactie.

Naam (verplicht)

E-mail (verplicht)

CAPTCHA Afbeelding
Voer de hierboven staande code in: