Zoeken

ChatGPT Images 2.0 met thinking, Gemini Deep Research Max, NVIDIA x Adobe x WPP

ChatGPT Images 2.0 met thinking, Gemini Deep Research Max, NVIDIA x Adobe x WPP

Op 21 april 2026 domineren drie grote aankondigingen het AI-nieuws: OpenAI lanceert ChatGPT Images 2.0 met zijn eerste beeldmodel dat kan redeneren, Google DeepMind presenteert twee autonome zoekagents aangedreven door Gemini 3.1 Pro, en NVIDIA verstevigt een driepartijspartnerschap met Adobe en WPP rond creatieve agents voor enterprise marketing. Claude Code, Codex en Git 2.54 maken een dag vol tool-updates compleet.


ChatGPT Images 2.0 en gpt-image-2

21 april — OpenAI lanceert ChatGPT Images 2.0, onmiddellijk beschikbaar voor alle gebruikers van ChatGPT en Codex. Het onderliggende model, gpt-image-2, is tegelijk beschikbaar via de API.

Deze nieuwe versie markeert een breuk met de vorige generatie: het volgen van gedetailleerde instructies (instruction following) is aanzienlijk verbeterd, de plaatsing en precieze relatie tussen objecten is betrouwbaarder, de weergave van dichte tekst is herzien, en meerdere formaten (portret, landschap, vierkant) worden native ondersteund.

De denkmodus (thinking) is de belangrijkste vernieuwing. ChatGPT Images 2.0 is het eerste beeldmodel van OpenAI met redeneercapaciteiten. In thinking-modus, beschikbaar voor Plus-, Pro- en Business-abonnees (Enterprise binnenkort), kan het model:

  • In realtime het web doorzoeken voor actuele informatie
  • Meerdere verschillende beelden genereren vanuit één enkele prompt
  • Zijn eigen output automatisch verifiëren en corrigeren

De onderzoeksteams van OpenAI lichtten de use cases toe in een thread: meertalige weergave en nauwkeurige tekst, slides en professionele infographics, meerdere formaten en resoluties, en het volgen van complexe instructies.

FunctionaliteitBeschikbaarheid
ChatGPT Images 2.0 (standaard)Alle ChatGPT- en Codex-gebruikers
thinking-modusChatGPT Plus, Pro, Business (Enterprise binnenkort)
API gpt-image-2Vanaf nu beschikbaar

De leidraad van OpenAI voor deze lancering: het model “gaat van beeldgeneratie naar strategisch ontwerp, van een tool naar een visueel systeem.”

🔗 Introductie van ChatGPT Images 2.0 🔗 Tweet @OpenAI


Google Deep Research en Deep Research Max

21 april — Google DeepMind lanceert twee autonome zoekagents aangedreven door Gemini 3.1 Pro: Deep Research en Deep Research Max.

Deze agents navigeren zowel op het open web als op gepersonaliseerde data — interne documenten, gespecialiseerde financiële informatie — om volledig geciteerde professionele rapporten te produceren.

Deep Research is geoptimaliseerd voor snelheid en lage latentie, ideaal voor interfaces die snelle antwoorden vereisen. Deep Research Max benut een langere rekentijd (extended test-time compute) om iteratief te redeneren, zoekopdrachten te verfijnen en een rapport van hoge kwaliteit te produceren — ontworpen voor asynchrone verwerking op de achtergrond.

FunctionaliteitDetail
MCP-ondersteuningVeilige verbinding met eigen of externe bronnen
Native generatie van visualsEerste agent die grafieken en infographics genereert (HTML of Nano Banana 2)
Collaboratieve planningDe gebruiker kan het onderzoeksplan verfijnen vóór uitvoering
MultimodaliteitPDF’s, CSV’s, afbeeldingen, audio en video geaccepteerd als input
BeschikbaarheidGemini API, betalende derden, openbare preview

De native generatie van visuals is opmerkelijk: Deep Research Max kan grafieken en infographics rechtstreeks in zijn rapporten produceren, in HTML of via Nano Banana 2, zonder externe tool. Startups en bedrijven op Google Cloud zullen binnenkort aangekondigde beschikbaarheid krijgen.

🔗 Aankondiging @GoogleDeepMind 🔗 Artikel blog.google


NVIDIA × Adobe × WPP — Creatieve agents voor enterprise marketing

20 april — NVIDIA breidt zijn strategische samenwerkingen met Adobe en WPP uit om autonome AI-agents in te zetten in enterprise marketingoperaties. De aankondiging gaat gepaard met een live demonstratie op de Adobe Summit op 21 april, met Jensen Huang (CEO NVIDIA) en Shantanu Narayen (CEO Adobe).

De nieuwe oplossing Adobe CX Enterprise Coworker wordt georkestreerd door AI-agents die steunen op:

  • NVIDIA OpenShell: veilige, observeerbare en controleerbare runtime voor agentische workflows
  • NVIDIA Agent Toolkit en open-source Nemotron-modellen
  • Adobe Firefly Foundry versneld door NVIDIA AI-infrastructuur

Concreet kan een wereldwijde retailer nu miljoenen product-/publieks-/kanaalcombinaties genereren in enkele minuten in plaats van maanden. 3D-digitale tweelingen (Omniverse + OpenUSD) dienen als persistente productidentiteiten om de productie van hoogwaardig content op schaal te automatiseren.

🔗 Artikel blogs.nvidia.com 🔗 Tweet @NVIDIAAI


Claude Code v2.1.116

19–21 april — Claude Code v2.1.116 brengt een reeks verbeteringen gericht op prestaties, betrouwbaarheid en terminalervaring.

De meest tastbare update: het commando /resume is tot 67% sneller op grote sessies (40 MB+), met beter beheer van “dead-fork”-inputs. De MCP-start is ook sneller met meerdere geconfigureerde stdio-servers.

Gebruikerservaring:

  • De reflectie-indicator toont nu de voortgang inline (“still thinking”, “thinking more”, “almost done thinking”), ter vervanging van de aparte hintregel
  • /config kan zoeken op optiewaarde (bijv. zoeken naar “vim” vindt de parameter Editor mode)
  • /doctor kan worden geopend terwijl Claude antwoordt, zonder te wachten tot het einde van de beurt

Beveiliging: de auto-allow sandbox omzeilt de controle op gevaarlijke paden voor rm/rmdir niet langer wanneer deze gericht zijn op /, $HOME of andere kritieke systeemmappen.

8 terminalfixes omvatten: Kitty-toetsenbordprotocol (Ctrl+-, Cmd+Links/Rechts), rendering van Devanagari-scripts, blokkering van Ctrl+Z via wrapperproces, duplicatie van scrollback in inline-modus, en meerdere fixes voor VS Code/Warp/Ghostty.

CategorieBelangrijkste wijziging
Prestaties/resume 67% sneller op sessies van 40 MB+
UXProgressive thinking spinner, zoeken in /config op waarde
BeveiligingSandbox respecteert bescherming van kritieke paden
Terminals8 fixes (Kitty, VS Code, Warp, Ghostty, WezTerm)
PluginsAutomatische installatie van ontbrekende afhankelijkheden

🔗 CHANGELOG Claude Code


Live Artifacts in Claude Cowork

20 april — Anthropic lanceert “Live Artifacts” in Claude Cowork: dynamische dashboards en trackers die rechtstreeks verbonden zijn met de toepassingen en bestanden van de gebruiker.

In tegenstelling tot klassieke artefacts (statisch) worden Live Artifacts automatisch ververst bij het openen met de huidige gegevens. Ze worden opgeslagen in een nieuw speciaal tabblad met versiegeschiedenis, toegankelijk vanuit elke sessie.

“In Cowork, Claude can now build live artifacts: dashboards and trackers connected to your apps and files. Open one any time and it refreshes with current data.”

🇳🇱 “In Cowork kan Claude nu dynamische artefacts maken: dashboards en trackers die verbonden zijn met je apps en bestanden. Open er op elk moment een en hij ververst zich met de huidige gegevens.”@claudeai op X

De functie is beschikbaar op alle betaalde plannen via een update van de Claude-app.

🔗 Aankondiging @claudeai


Codex in enterprise: Codex Labs en 7 integratiepartners

21 april — OpenAI zet een volgende stap in de enterprise-uitrol van Codex: 4 miljoen ontwikkelaars gebruiken het wekelijks (tegen 3 miljoen begin april, oftewel +33% in twee weken), en tegelijkertijd lanceert het Codex Labs en een partnerschapsprogramma met 7 wereldwijde integrators.

Codex Labs brengt OpenAI-experts rechtstreeks naar organisaties voor praktische workshops en werksessies, met als doel teams te helpen van experimenteel gebruik naar reproduceerbare uitrol te gaan.

De 7 integratiepartners (GSI): Accenture, Capgemini, CGI, Cognizant, Infosys, PwC en Tata Consultancy Services.

BedrijfGebruik van Codex
Virgin AtlanticTestdekking, vermindering van technische schuld
RampVersnelling van code reviews (code review)
NotionSnelle ontwikkeling van nieuwe functionaliteiten
CiscoBegrip van grote onderling verbonden repositories
RakutenIncident response (incident response)

Codex breidt zich nu uit voorbij softwareontwikkeling: browsernavigatie, beeldgeneratie, geheugen, orkestratie van transversale taken.

🔗 Codex wereldwijd opschalen naar enterprises


Nano Banana Pro in Google AI Studio

20 april — Abonnees van Google AI Pro en Ultra krijgen nu bredere toegang tot Google AI Studio zonder dat een API-sleutel nodig is: toegang tot Nano Banana Pro en de Gemini Pro-modellen met verhoogde gebruikslimieten.

Je hoeft alleen maar in te loggen met je abonnementsaccount om van prototype naar productie te gaan. Deze ontwikkeling positioneert het Google AI-abonnement als een praktische brug voor ontwikkelaars die willen experimenteren zonder de complexiteit van facturatie per verzoek.

🔗 Aankondiging @GoogleAI 🔗 Artikel blog.google


Kimi FlashKDA open-source

21 april — Moonshot AI publiceert FlashKDA open-source, hun hoogwaardige CUTLASS-implementatie van de Kimi Delta Attention (KDA)-kernels.

MetriekWaarde
Speedup prefill vs baseline1,72× tot 2,22× op H20
IntegratieDrop-in backend voor flash-linear-attention
VereistenSM90+, CUDA 12.9+, PyTorch 2.4+

FlashKDA werkt als een verwisselbare (drop-in) backend voor flash-linear-attention. De integratie is beschikbaar via de PR fla-org/flash-linear-attention#852.

🔗 GitHub-repo FlashKDA 🔗 Tweet @Kimi_Moonshot


Git 2.54

20 april — Git 2.54 is beschikbaar met drie structurele vernieuwingen.

git history (experimenteel) — Nieuwe subcommand om de geschiedenis te herschrijven zonder git rebase -i:

  • git history reword <commit> : het bericht van een commit aanpassen en branches in place herschrijven
  • git history split <commit> : een commit interactief opsplitsen in twee

Config-based hooks — Hooks kunnen nu worden gedefinieerd in Git-configuratiebestanden, niet meer alleen in .git/hooks. Dit maakt delen tussen meerdere repositories via ~/.gitconfig mogelijk, meerdere hooks voor dezelfde gebeurtenis, en individuele uitschakeling via hook.<name>.enabled = false.

Geometric repacking standaardgit maintenance gebruikt nu standaard de geometrische strategie, wat de prestaties verbetert zonder extra configuratie.

🔗 Hoogtepunten van Git 2.54 🔗 Tweet @github


Genspark Build in openbare preview

21 april — Genspark lanceert Genspark Build in public preview (public preview): een tool voor het maken van applicaties en websites, aangedreven door Claude Opus 4.7, die het hele proces bestrijkt van idee tot mockup, design, prototype en werkende code.

Plus- en Pro-gebruikers krijgen 3 dagen toegang zonder credits van 21 tot 24 april (9u PT). Genspark zegt te lanceren met “rough edges and all” — de tool is actief in ontwikkeling.

Diezelfde dag integreert Genspark ook Lyria 3 Music in zijn AI Music Agent en Gemini 3.1 Flash TTS in zijn AI Audio Agent.

🔗 Tweet Genspark Build 🔗 Tweet Lyria 3 + TTS


Cohere — Onderzoek naar speculative decoding voor MoE-modellen

21 april — Cohere publiceert een technisch onderzoeksartikel over de optimalisatie van mixture-of-experts-modellen (Mixture-of-Experts, MoE) met speculative decoding (speculative decoding).

Het team valideert op zijn productie-MoE-modellen — waaronder Command A (111 miljard parameters) — een niet-monotone winstcurve afhankelijk van de batchgrootte: de winst neemt eerst toe en daalt daarna. Twee sleutelmechanismen worden geïdentificeerd: temporele correlatie in expert-routing vermindert het aantal unieke experts dat in geheugen geladen moet worden met 20 tot 31%, en amortisatie van vaste kosten verklaart de hoge winst bij BS=1.

🔗 Artikel Cohere


Genspark Claw: Kimi K2.6 vanaf dag één

21 april — Genspark integreert Kimi K2.6 vanaf de lanceringsdag (Day 0) in zijn Claw-tool, via een partnerschap met Fireworks AI dat de pre-launch- en testfasen begeleidde.

🔗 Tweet @genspark_ai


Anthropic STEM Fellows Program

21 april — Anthropic lanceert het STEM Fellows-programma, gericht op experts in wetenschap en techniek om naast de onderzoeksteams te werken aan projecten van enkele maanden, gevestigd in San Francisco.

🔗 Aankondiging @AnthropicAI


Wat dit betekent

21 april markeert een samenkomst van redeneren en multimodale generatie. gpt-image-2 illustreert een duidelijke trend: generatieve modellen integreren redeneren als orkestratielaag, niet alleen als kwaliteitsverbetering. Het resultaat is een model dat kan zoeken, genereren, verifiëren en corrigeren in éénzelfde sessie.

Deep Research Max duwt dezelfde logica door aan de zoekkant: met MCP-ondersteuning kan de agent toegang krijgen tot gestructureerde eigen data, wat de weg opent naar autonome analytische workflows zonder gevoelige data te exporteren naar externe diensten.

Het NVIDIA × Adobe × WPP-partnerschap geeft aan dat de enterprise-adoptie van creatieve AI uit de pilotfase komt. OpenShell als controleerbare runtime beantwoordt aan een echte eis van grote organisaties: autonome agents moeten geobserveerd en getraceerd kunnen worden, niet alleen performant.

Aan de toolkant zijn de config-based hooks van Git 2.54 een discrete maar belangrijke architecturale evolutie: gedeelde hooks tussen repositories via ~/.gitconfig zullen teampraktijken voor de standaardisatie van lokale CI-workflows veranderen.


Bronnen - ChatGPT Images 2.0 geïntroduceerd

Dit document is vertaald van de fr-versie naar de nl-taal met behulp van het model gpt-5.4-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator