Waar ik me de afgelopen week over verwonderd heb, als het gaat om generatieve AI (deel 4)
Stopt het nieuws over (generatieve) AI nu nooit? Voorlopig niet, verwacht ik. Daarom deze weer een aantal nieuwtjes over generatieve AI, waarover ik me verwonderd heb. Het zijn er dit keer maar liefst tien.
Domineert Google het AI-landschap?
Volgens technologie-auteur Alberto Romero is Google momenteel de onbetwiste leider op alle fronten van AI. Hij stelt dat concurrenten zoals OpenAI en Anthropic hun kans hebben gehad en deze hebben gemist. Romero benadrukt de superioriteit van Google’s Gemini 2.5 Pro, dat hij beschouwt als het beste model ter wereld. Daarnaast noemt hij de kosteneffectiviteit en snelheid van Google’s modellen, de enorme contextvensters en de integratie met Google’s uitgebreide productaanbod zoals Search, YouTube en Gmail. Ook op het gebied van andere generatieve AI-tools (muziek, beeld, video, spraak) en AI-agents ziet Romero Google als dominant. Hij concludeert dat Google, naast AI-ontwikkeling, ook een sterke positie inneemt als software-, cloud- en hardwarebedrijf. Daardoor zou Google een unieke voorsprong hebben ten opzichte van AI-concurrenten.
Ik zou deze stelling nog niet willen verdedigen. Je ziet wel dat Google zich heel nadrukkelijk manifesteert, fors investeert en ook flinke stappen zet. Met Google Notebook LM hebben ze m.i. een duidelijk onderscheidende troef in handen.
OpenAI past veiligheidsraamwerk aan: massabeïnvloeding niet langer als kritiek risico gezien
OpenAI heeft zijn veiligheidsraamwerk aangepast en zal AI-modellen niet meer vooraf beoordelen op het risico dat ze mensen kunnen overtuigen of manipuleren. Dit m.i. zorgwekkende nieuws meldt Fortune. Dit type risico’s worden nu afgedekt via gebruiksvoorwaarden en monitoring. OpenAI geeft aan ook modellen met ‘hoog risico’ te overwegen vrij te geven, mits passende maatregelen zijn genomen om gevaren te verminderen. Zelfs modellen met ‘kritiek risico’ kunnen worden vrijgegeven als een concurrent al een vergelijkbaar model heeft uitgebracht. Deze wijzigingen hebben volgens Fortune gemengde reacties opgeleverd onder AI-veiligheidsexperts. Sommigen prijzen de vrijwillige openbaarmaking van het raamwerk, terwijl anderen bezorgd zijn dat OpenAI zijn veiligheidsverplichtingen terugschroeft. Critici wijzen vooral op de afwaardering van overtuigingskracht als risicofactor, terwijl voorstanders menen dat dit type risico’s beter via gebruiksvoorwaarden gereguleerd kunnen worden dan via voorafgaande tests.
OpenAI onthult nieuw AI-vlaggenschip GPT-4.1
OpenAI heeft deze week GPT-4.1 geïntroduceerd als hun nieuwste en meest geavanceerde AI-model. Volgens OpenAI is GPT-4.1 op vrijwel elk vlak beter dan zijn voorganger GPT-4o, met aanzienlijke verbeteringen in coderen en het opvolgen van instructies. Het model beschikt over een groter contextvenster van één miljoen tokens. Dat is aanzienlijk meer dan de 128.000 tokens van GPT-4o. OpenAI benadrukt dat GPT-4.1 getraind is om betrouwbaar informatie te verwerken over de volledige contextlengte en beter relevante tekst herkent. Bovendien is GPT-4.1 26 procent goedkoper dan GPT-4o. Deze nieuwe generatie AI is nu beschikbaar voor ontwikkelaars, die gebruik maken van de API, samen met de kleinere varianten GPT-4.1 Mini en GPT-4.1 Nano. De lancering van GPT-4.1 betekent dat het twee jaar oude GPT-4 model vanaf 30 april uit ChatGPT gefaseerd zal worden.
Wikipedia stelt geoptimaliseerde dataset beschikbaar voor AI-ontwikkelaars
De Wikimedia Foundation heeft een samenwerking aangekondigd met Kaggle, een Google-platform voor datawetenschappen, om een gestructureerde dataset van Wikipedia-content beschikbaar te stellen aan AI-ontwikkelaars. Deze dataset, die momenteel Engelstalige en Franstalige content bevat, is speciaal ontworpen voor machine learning-toepassingen en biedt een geordend alternatief voor het ‘scrapen’ van de Wikipedia-website. De content is aangeboden in JSON-formaat en omvat onderzoekssamenvattingen, korte beschrijvingen, afbeeldingslinks en artikelsecties. Dankzij deze samenwerking wordt data toegankelijker voor tal van ontwikkelaars en onderzoekers. De dataset is sinds 15 april beschikbaar in bètaversie. Deze stap illustreert de samenwerking tussen contentleveranciers en AI-platforms.
OpenAI werkt aan eigen sociaal netwerk
Volgens The Verge werkt OpenAI aan een eigen sociaal netwerk, dat mogelijk lijkt op X. Er zou een intern prototype bestaan dat zich richt op de beeldgeneratie van ChatGPT en een sociale feed bevat. CEO Sam Altman zou externen om feedback hebben gevraagd over dit project. Het is nog onduidelijk of het sociale netwerk een aparte app wordt of in ChatGPT geïntegreerd zal worden. Dit initiatief zou de rivaliteit met Elon Musk en Meta kunnen versterken, aangezien zij ook sociale elementen in hun AI-strategieën overwegen. Een eigen sociaal netwerk zou OpenAI tevens toegang geven tot unieke, real-time data om hun AI-modellen te trainen, zoals X en Meta dat nu al doen. Het is echter nog onzeker of dit project daadwerkelijk gelanceerd zal worden.
Eigen AI Voice Agents maken met ElevenLabs
ElevenLabs faciliteert ontwikkelaars om in enkele minuten menselijk klinkende AI voice agents te creëren. Meer dan 500.000 van deze agents zijn al gebouwd en worden gebruikt voor ondersteuning, afspraken en training. Gebruikers kunnen kiezen uit meer dan 5.000 stemmen, een systeemprompt schrijven, kennis toevoegen en integraties maken om snel operationele agents te lanceren. Hierdoor moet iedereen in staat zijn om eenvoudig geavanceerde AI-gestuurde spraakapplicaties te implementeren.
Anthropic bereidt lancering voice AI voor Claude voor
Anthropic is van plan een nieuwe “voice mode” functie te introduceren voor hun AI-toepassing Claude. Deze functie zal naar verluidt drie Engelstalige stemmen aanbieden: Airy, Mellow en Buttery. Er waren al eerder aanwijzingen voor deze ontwikkeling, met verwijzingen naar een voice mode in Anthropic’s iOS app. Deze stap positioneert Anthropic als een directe concurrent van OpenAI, die een vergelijkbare optie in ChatGPT heeft. Het valt wel op dat OpenAI altijd als eerste met dergelijke innovatie komt. Anthropic en Google volgen.
Claude krijgt Workspace integratie en verbeterde zoekfuncties
Behalve de beschreven ‘stem modus’ heeft Anthropic meer vernieuwingen van Claude aangekondigd. Daarnaast integreert Claude nu met Google Workspace (Gmail, Calendar, Docs), waardoor het AI-model meer inzicht krijgt in de werkcontext van gebruikers zonder handmatige uploads. Voor Max-gebruikers is er de “Research” functie in bèta, die zowel interne als webcontext doorzoekt om uitgebreide antwoorden met bronvermelding te leveren. Bovendien is web zoeken nu automatisch ingeschakeld voor alle Pro-gebruikers in Brazilië, Japan en de Verenigde Staten. Persoonlijk ben ik nogal terughoudend in het geven van toegang aan dergelijke applicaties tot mijn digitale werkplek.
‘Redeneren’ met afbeeldingen
OpenAI heeft twee nieuwe AI-redeneermodellen gelanceerd: o3, dat het bedrijf omschrijft als hun “krachtigste redeneermodel”, en o4-mini, een kleiner en sneller model dat opmerkelijke prestaties levert, als je rekening houdt met grootte en kosten.n Beide modellen kunnen nu “denken” met afbeeldingen. Dit betekent dat ze afbeeldingen direct in hun gedachteproces integreren. Dit stelt ze in staat om bijvoorbeeld schetsen of whiteboards te begrijpen en afbeeldingen aan te passen door in te zoomen of te roteren tijdens het redeneren. Bovendien zullen de redeneermodellen alle ChatGPT-tools kunnen gebruiken, waaronder webbrowsing en beeldgeneratie. Deze functionaliteiten zijn nu beschikbaar voor ChatGPT Plus-, Pro- en Team-gebruikers in o3, o4-mini en o4-mini-high, en zullen binnenkort ook beschikbaar komen in o3-pro.
Google lanceert Gemini 2.5 Flash in experimentele versie
Na al die aangekondigde innovaties van de concurrentie kan Google als ogenschijnlijke ‘koploper’ -zie het eerste bericht- natuurlijk niet achterblijven. Google heeft een eerste versie van Gemini 2.5 Flash uitgebracht. Dit nieuwe model bouwt voort op de 2.0 Flash-versie en biedt volgens de ontwikkelaar een aanzienlijke verbetering in redeneervermogen, terwijl het nog steeds prioriteit geeft aan snelheid en kostenefficiëntie. Gemini 2.5 Flash wil Google’s eerste volledig hybride redeneermodel zijn, waarbij ontwikkelaars het denkvermogen kunnen in- of uitschakelen en budgetten kunnen instellen om de balans tussen kwaliteit, kosten en reactiesnelheid te optimaliseren. Zelfs met uitgeschakeld denkvermogen behouden ontwikkelaars de snelheid van 2.0 Flash met verbeterde prestaties. Het model is ook beschikbaar voor alle gebruikers in de Gemini-app en kan worden gebruikt met nieuwe functies zoals ‘Canvas’ waarmee je gegenereerde documenten en code kunt aanpassen.
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
The post
Waar ik me de afgelopen week over verwonderd heb, als het gaat om generatieve AI (deel 4) first appeared on
WilfredRubens.com over leren en ICT.
Lees het hele
artikel