Bloggers

Een overzicht van blogs geschreven door aanbieders die zich hebben aangesloten bij e-Learning.nl.


Van Wilfred Rubens (redactie) | 13-09-2025 | Article Rating | (0) reacties

Waar ik me de afgelopen week over verwonderd heb, als het gaat om generatieve AI (deel 21)

Verschillende nieuwtjes passeerden deze week weer de revue, waarover ik me verwonderd heb. Denk aan de investering van ASML in Mistral, de bijgestelde DPIA van Copilot door SURF of de nieuwe educatieve functies binnen Google Notebook LM. En dit zijn maar drie van de zestien berichten in deze blogpost.

Headset silent communicationASML investeert 1,3 miljard euro in Franse AI-ontwikkelaar Mistral

ASML wordt de grootste aandeelhouder van het Franse AI-bedrijf Mistral na een investering van 1,3 miljard euro. Dat meldde onder meer De Volkskrant. De chipmachinefabrikant uit Veldhoven krijgt naar verwachting ook een plek in de raad van bestuur. Mistral wil zich positioneren als Europees alternatief voor Amerikaanse AI-reuzen zoals OpenAI en Google, en het Chinese DeepSeek. Het Franse bedrijf ontwikkelt Large Language Models en hanteert een open source-benadering, waarbij andere ontwikkelaars de code kunnen gebruiken en aanpassen. ASML gebruikt zelf AI om zijn lithografiemachines efficiënter te laten werken en zou daarvoor Mistral’s modellen kunnen inzetten. De investering past bij ASML’s pleidooi voor een sterkere Europese techsector. Volgens CFO Roger Dassen -overigens de echtgenoot van de burgemeester van mijn geboorteplaats Kerkrade- ligt de nadruk in Europa te veel op AI-regulering en te weinig op het stimuleren van bedrijven die AI ontwikkelen. Met de investering wordt Mistral gewaardeerd op 10 miljard euro. Dit is echt belangrijk nieuws in het streven naar een Europees alternatief voor de big AI-tech uit de VS (en China).

Microsoft 365 Copilot als onderwijsinstelling gebruiken? Wees voorzichtig, aldus SURF

SURF heeft zijn advies over Microsoft 365 Copilot bijgesteld na een nieuwe privacybeoordeling, de zogenaamde Data Protection Impact Assessment. De organisatie raadt onderwijs- en onderzoeksinstellingen niet langer volledig af om de AI-tool te gebruiken, maar beveelt nog altijd voorzichtigheid aan. In december 2024 identificeerde SURF vier hoge privacyrisico’s in Copilot. Door gesprekken met Microsoft zijn twee daarvan weggenomen. De overgebleven twee risico’s, die nu als ‘medium’ worden beoordeeld, betreffen onnauwkeurige persoonsgegevens en de bewaartermijn van diagnostische gegevens. SURF adviseert instellingen om per gebruikstoepassing de risico’s af te wegen en duidelijke afspraken te maken over AI-inzet binnen de organisatie. Uiteraard is dit complexer vorm te geven dan een eenvoudig ‘niet doen’. Tegelijkertijd kunnen onderwijsinstellingen ‘officieel’ aan de slag met deze AI-toepassing. SURF houdt de ontwikkelingen bij Microsoft in de gaten en maakt over zes maanden opnieuw een beoordeling van de resterende risico’s. Ik ben benieuwd of SURF ook Google Gemini of Le Chat van Mistral aan een DPIA gaat onderwerpen.

Nieuwe educatieve functies in NotebookLM 

NotebookLM beschikt over diverse functies om het leren te ondersteunen. Deze nieuwe tools omvatten flashcards en quizzen die zijn gegenereerd vanuit gebruikersdocumenten, zoals collegedictaten of onderzoeksartikelen. Dit helpt lerenden om actief met de stof bezig te zijn, al is het zelf maken van flashcards natuurlijk leerzamer. Daarnaast biedt de herziene rapportenfunctie nieuwe formaten, waaronder blogposts en aangepaste inhoudsopmaak. Ook is er een ‘Learning Guide’ toegevoegd, die als een persoonlijke tutor functioneert door middel van diepgaande vragen en stap-voor-stap uitleg. Partnerschappen met OpenStax zorgen voor toegang tot hoogwaardige academische inhoud, en nieuwe audioformaten, zoals debatten en kritieken, bieden verschillende perspectieven op de stof.

AI-headset detecteert onhoorbare spraak via spieractiviteit

Het Boston-startup Alterego heeft een hoofdtelefoon ontwikkeld die AI gebruikt om stille communicatie te interpreteren. Dat hebben ze via X bekend gemaakt. Het apparaat detecteert kleine spierbewegingen in kaak en keel wanneer iemand denkt aan spreken, zonder dat er geluid wordt geproduceerd. Kleine camera’s in de headset registreren deze bewegingen en zetten ze om in commando’s voor taken zoals programmeren, berichten sturen of visuele zoekopdrachten. Volgens de makers werkt het systeem ook in lawaaiige omgevingen en kan het meertalige spraak verwerken. Het project ontstond in 2018 bij het MIT Media Lab en werd dit jaar een commercieel bedrijf. Wanneer het product beschikbaar komt, is nog niet bekendgemaakt. Ze hebben in ieder geval verstand van marketing. Op hun website kun je een demonstratie bekijken. Let op de lange kabel waarmee de headset verbonden is.

Claude kan nu documenten en spreadsheets maken

Anthropic heeft Claude uitgebreid met de mogelijkheid om Excel-spreadsheets, Word-documenten, PowerPoint-presentaties en PDF’s te maken en bewerken. Gebruikers kunnen Claude instructies geven en gegevens uploaden om direct bruikbare bestanden te ontvangen. De AI kan ruwe data omzetten naar rapporten met grafieken en analyses, financiële modellen bouwen met werkende formules, of documenten converteren tussen verschillende formaten. Claude heeft hiervoor toegang gekregen tot een computeromgeving waar het code kan schrijven en programma’s kan uitvoeren. De functie is beschikbaar als preview voor Max-, Team- en Enterprise-gebruikers, Pro-gebruikers krijgen toegang in de komende weken. Gebruikers moeten de functie handmatig inschakelen via de instellingen. Anthropic waarschuwt dat Claude internettoegang heeft bij deze functie, wat datarisico’s met zich meebrengt. De ontwikkeling toont hoe AI-assistenten zich ontwikkelen van vraag-en-antwoord naar actieve samenwerking bij complexe taken.

Microsoft overweegt Anthropic AI naast OpenAI in Office 365

Microsoft onderhandelt naar verluidt over integratie van Anthropic’s Claude-modellen in Office 365, naast de bestaande OpenAI-technologie. Dit zou de eerste grote diversificatie betekenen van Microsoft’s AI-strategie. Tot nu toe leunde deze strategie sterk op de samenwerking met OpenAI. Volgens bronnen presteert Claude Sonnet 4 beter dan OpenAI’s GPT-5 bij het maken van spreadsheets en PowerPoint-presentaties. Microsoft zou toegang krijgen tot Anthropic’s modellen via Amazon Web Services, ondanks de kosten die dit met zich meebrengt terwijl OpenAI gratis beschikbaar is. De timing valt samen met Anthropic’s nieuwe mogelijkheden voor het maken van bestanden zoals PDF’s en presentaties. Microsoft lijkt de afhankelijkheid van één partner, als het gaat om AI, te willen verminderen en verschillende technologieën wil benutten voor specifieke toepassingen.

Albanië benoemt AI-systeem tot minister van Aanbestedingen

In eerste instantie dacht imk dat dit bericht een grap was. Diverse media, waaronder de NOS, melden echter dat de Albanese premier Edi Rama een AI-bot met de naam Diella heeft aangesteld als minister van Aanbestedingen. Het systeem moet objectief bepalen welke bedrijven overheidscontracten krijgen, zonder gevoelig te zijn voor steekpenningen of belangenverstrengeling. Diella is al sinds begin dit jaar actief als virtuele functionaris op het overheidsportaal e-Albania, waar burgers en bedrijven hulp krijgen bij papierwerk. De premier belooft volledige transparantie over de toewijzing van publiek geld, maar gaf geen details over menselijk toezicht op het systeem of bescherming tegen manipulatie van het algoritme. Albanië kampt met wijdverbreide corruptie en staat op de corruptie-index van Transparency International op de op één na laagste positie van alle Europese landen. Het land hoopt binnen enkele jaren toe te treden tot de EU. Dat wordt bemoeilijkt door de corruptieproblemen. Of deze AI-toepassing inderdaad in staat is om objectief te bepalen welk bedrijf een overeenkomst met de overheid mag afsluiten, is m.i. maar de vraag. Als ‘bias’ nog steeds voorkomt, en als deze tools beïnvloedbaar zijn, dan kan Diella mogelijk ‘omkoopbaar’ zijn (zonder daadwerkelijk steekpenningen te ontvangen).

AI-tools creëren misleidende beelden bij politieonderzoek

Na de moord op Charlie Kirk deelde de FBI wazige bewakingsfoto’s van een verdachte. Binnen korte tijd reageerden volgens The Verge internetgebruikers met ‘verbeterde’ versies van deze beelden. Deze beelden zijn echter gemaakt met tools zoals ChatGPT en X’s Grok-bot. Deze AI-tools maken echter geen verborgen details zichtbaar, maar raden hoe de verdachte er uit zou kunnen zien, gebaseerd op patronen uit hun trainingsdata. Dit leidt tot onbetrouwbare resultaten die elementen kunnen bevatten die er niet waren in de originele foto’s. Eerdere gevallen toonden volgens The Verge al aan hoe problematisch dit kan zijn: AI heeft bijvoorbeeld een foto van president Obama omgezet in een witte man en een niet-bestaande bult toegevoegd aan Trumps hoofd. Hoewel de bedoeling vaak is om te helpen bij de opsporing, kunnen deze AI-gegenereerde variaties het onderzoek juist verstoren door valse aanwijzingen te creëren.

Replit introduceert Agent 3: meer autonomie voor app-ontwikkeling

Replit heeft Agent 3 aangekondigd. Dat is een nieuwe versie van hun AI-assistent voor het bouwen van applicaties. Deze tool kan nu tot 200 minuten zelfstandig werken. Denk daarbij aan apps bouwen, testen en eventuele problemen oplossen zonder tussenkomst van de gebruiker. Een opvallende verbetering is dat Agent 3 automatisch applicaties test door middel van een browseromgeving, waarbij het knoppen en formulieren controleert en problemen direct repareert. De AI kan ook andere agents en automatischer processen creëren, zoals Slack-bots of geautomatiseerde e-mails voor dagelijkse taken. Daarnaast werkt Agent 3 samen met verschillende externe diensten zoals Notion, Linear en Dropbox door vereenvoudigde verbindingen. Gebruikers kunnen nu kiezen tussen het direct bouwen van volledige applicaties of beginnen met alleen de voorkant voor snelle prototypes. Agent 3 is beschikbaar voor alle gebruikers van Replit.

AI-modellen raden vaak wanneer ze onzeker zijn

Onderzoekers van OpenAI verklaren in dit paper waarom AI-taalmodellen soms onjuiste informatie produceren die wel geloofwaardig klinkt, de zogenaamde ‘hallucinaties’. Het probleem ontstaat doordat deze systemen worden getraind om altijd een antwoord te geven, zelfs wanneer ze onzeker zijn. Net zoals studenten die bij moeilijke examenvragen een gok wagen in plaats van ‘ik weet het niet’ te schrijven, kiezen AI-modellen ervoor om plausibel klinkende maar incorrecte antwoorden te geven. De oorzaak ligt in de manier waarop de modellen worden geëvalueerd: systemen die gokken scoren vaak beter op tests dan systemen die toegeven wanneer ze iets niet weten. Volgens de onderzoekers kan dit probleem alleen worden opgelost door de beoordelingssystemen aan te passen die momenteel de ontwikkeling van AI sturen. Dit zou het veld kunnen helpen bij het ontwikkelen van betrouwbaardere AI-systemen die eerlijk zijn over hun onzekerheid.

Anthropic betaalt 1,5 miljard dollar voor gebruik van illegale boeken

Onlangs besteedde ik al aandacht aan een programma van Perplexity dat uitgevers compenseert wanneer hun content wordt gebruikt in AI-zoekresultaten. Een week geleden werd bekend dat AI-bedrijf Anthropic een rechtszaak heeft geschikt voor minimaal 1,5 miljard dollar na beschuldigingen van schending van auteursrecht. Auteurs klaagden het bedrijf aan omdat het meer dan 7 miljoen illegaal gedownloade boeken van piratenwebsites zoals LibGen had gebruikt om het AI-model Claude te trainen. Een federale rechter oordeelde in juni dat het trainen op legaal gekochte boeken valt onder ‘fair use’. Het downloaden van illegale kopieën schendt echter het auteursrecht. De schikking dekt ongeveer 500.000 boeken à 3.000 dollar per werk, met extra betalingen als er meer illegaal materiaal wordt gevonden in de trainingsdata. Anthropic moet alle illegale bestanden vernietigen en krijgt geen toestemming voor toekomstig gebruik. Dit is de eerste grote uitbetaling van een AI-bedrijf voor auteursrechtschending, ook al gaat het specifiek om piraterij en niet om het ‘fair use’-gebruik van legaal verkregen teksten.

Nieuwe webstandaard moet contentmakers compenseren voor AI-gebruik

Grote internetbedrijven zoals Reddit, Yahoo en Medium hebben deze week de Really Simple Licensing (RSL) standaard geïntroduceerd. Deze nieuwe webstandaard moet ervoor zorgen dat uitgevers en contentmakers betaald krijgen wanneer AI-bedrijven hun content gebruiken voor training of het genereren van antwoorden. De RSL-standaard bouwt voort op het bekende RSS-protocol en stelt websites in staat om licentievoorwaarden toe te voegen aan hun robots.txt-bestanden die door machines kunnen worden gelezen. Hierdoor kunnen uitgevers verschillende compensatiemodellen instellen, van gratis gebruik tot betaling per crawl-actie of per AI-antwoord. De bijbehorende non-profitorganisatie RSL Collective bundelt olgens het persbericht de belangen van miljoenen uitgevers om betere onderhandelingsposities te creëren tegenover AI-bedrijven. Het initiatief is een reactie op de groeiende spanning tussen contentmakers en AI-bedrijven over het ongecompenseerde gebruik van webinhoud voor AI-training. De standaard is vanaf nu gratis beschikbaar voor alle websites.

Google breidt Veo 3 uit met verticale video’s

Google heeft nieuwe functies toegevoegd aan zijn Veo 3 AI-videogenerator. De tool kan nu video’s maken in verticaal formaat (9:16 verhouding). Deze video’s zijn geschikt voor mobiele apparaten en sociale media platforms zoals TikTok en Instagram. Daarnaast ondersteunt Veo 3 nu 1080p-resolutie in plaats van de eerdere 720p-limiet, hoewel deze hogere resolutie momenteel alleen beschikbaar is voor horizontale video’s. De prijzen zijn ook verlaagd: Veo 3 kost nu $0,40 per seconde (voorheen $0,75) en de snellere Veo 3 Fast variant kost $0,15 per seconde (voorheen $0,40). Deze updates zijn specifiek gericht op ontwikkelaars die apps bouwen met Veo 3-ondersteuning via de Gemini API. Google kondigde volgens The Verge eerder al aan dat Veo 3 deze zomer beschikbaar zou komen voor YouTube Shorts. Er zal nu waarschijnlijk meer AI-gegenereerde content op de zogenaamde ‘verticale videoplatforms’ verschijnen.

AI ondersteunt ouderen bij bloeddrukmetingen thuis

Een onderzoek laat volgens de American Heart Association zien dat AI-voice agents ouderen met hoge bloeddruk hebben geholpen om nauwkeurigere bloeddrukmetingen te rapporteren en het controleren van hun bloeddruk te verbeteren. Het AI-systeem, geïntegreerd in de zorg, verbeterde de nauwkeurigheid van bloeddrukmetingen thuis en verhoogde het afronden van metingen. De AI-voice agent belde patiënten om hun bloeddrukmetingen te verzamelen. Daardoor werden de kosten per meting fors verlaagd, en verbeterde de zorgkwaliteit. Met een hoge patiënttevredenheidsscore van meer dan 9 op een tienpuntsschaal belooft deze technologie de bloeddrukverzorging effectiever te maken. Het onderzoek onderstreept het potentieel van AI in het verbeteren van patiëntuitkomsten en het verminderen van de werklast voor zorgverleners.

TextJam: een nieuwe manier van schrijven met AI

TextJam introduceert volgens Bernard Marr een frisse kijk op schrijven door menselijke creativiteit te combineren met AI. De applicatie is ontwikkeld door Pete DeLaurentis en biedt gebruikers de mogelijkheid om tekst in ‘pen’ of ‘potlood’ te schrijven, waarbij AI alleen suggesties doet voor tekst geschreven in potlood. Deze optie behoudt de stijl van de schrijver terwijl AI helpt bij het verfijnen van inhoud. Met functies zoals ’time traveler’ voor het bijhouden van wijzigingen en real-time samenwerking, onderscheidt TextJam zich volgens Marr van traditionele tools als Microsoft Word en Google Docs. Het platform ondersteunt verschillende AI-modellen, waardoor gebruikers flexibiliteit hebben in hun keuze. Het doel van TextJam is niet om schrijvers te vervangen, maar om hun vaardigheden te verbeteren door AI als een creatie power tool in te zetten.

OpenAI ontwikkelt eigen AI-chips samen met Broadcom

OpenAI gaat volgens Ars Technica volgend jaar voor het eerst eigen AI-chips produceren in samenwerking met het Amerikaanse halfgeleiderbedrijf Broadcom. De chips zijn bedoeld voor intern gebruik om de groeiende vraag naar rekenkracht voor ChatGPT en andere AI-modellen op te vangen. Broadcom-CEO Hock Tan meldde dat een nieuwe klant voor 10 miljard dollar aan orders heeft geplaatst. Dit betreft volgens bronnen OpenAI, aldus Ars Technica. Het bedrijf volgt hiermee de strategie van techgiganten zoals Google, Amazon en Meta, die al langer hun eigen gespecialiseerde chips ontwikkelen. OpenAI is momenteel nog sterk afhankelijk van Nvidia-chips, maar CEO Sam Altman heeft herhaaldelijk gewezen op de behoefte aan meer rekenkracht. De samenwerking tussen OpenAI en Broadcom begon vorig jaar, maar de tijdlijn voor massaproductie was tot nu toe onduidelijk. De AI-industrie kiest steeds meer voor aangepaste chipoplossingen in plaats van standaardproducten.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

The post Waar ik me de afgelopen week over verwonderd heb, als het gaat om generatieve AI (deel 21) first appeared on WilfredRubens.com over leren en ICT.
Lees het hele artikel


Hoe waardeert u deze bijdrage?




Reacties

Plaats hieronder uw reactie.

Naam (verplicht)

E-mail (verplicht)

CAPTCHA Afbeelding
Voer de hierboven staande code in: