Cerca

ChatGPT Images 2.0 con thinking, Gemini Deep Research Max, NVIDIA x Adobe x WPP

ChatGPT Images 2.0 con thinking, Gemini Deep Research Max, NVIDIA x Adobe x WPP

Il 21 aprile 2026, tre annunci importanti dominano l’attualità IA: OpenAI lancia ChatGPT Images 2.0 con il suo primo modello image capace di ragionare, Google DeepMind presenta due agenti di ricerca autonomi alimentati da Gemini 3.1 Pro, e NVIDIA consolida una partnership tripartita con Adobe e WPP attorno ad agenti creativi per il marketing enterprise. Claude Code, Codex e Git 2.54 completano una giornata ricca di aggiornamenti sugli strumenti.


ChatGPT Images 2.0 e gpt-image-2

21 aprile — OpenAI lancia ChatGPT Images 2.0, disponibile immediatamente per tutti gli utenti di ChatGPT e di Codex. Il modello sottostante, gpt-image-2, è contemporaneamente disponibile tramite l’API.

Questa nuova versione segna una svolta rispetto alla generazione precedente: il follow-up di istruzioni dettagliate (instruction following) è significativamente migliorato, il posizionamento e l’associazione precisa degli oggetti sono più affidabili, il rendering di testo denso è stato rivisto e diversi formati (ritratto, paesaggio, quadrato) sono supportati nativamente.

La modalità riflessione (thinking) è la principale novità. ChatGPT Images 2.0 è il primo modello image di OpenAI dotato di capacità di ragionamento. In modalità thinking, disponibile per gli abbonati Plus, Pro e Business (Enterprise presto), il modello può:

  • Cercare il web in tempo reale per informazioni aggiornate
  • Generare più immagini distinte da un unico prompt
  • Auto-verificare e correggere le proprie uscite

I team di ricerca di OpenAI hanno dettagliato i casi d’uso in un thread: rendering multilingue e testo preciso, diapositive e infografiche professionali, formati e risoluzioni multipli, follow-up di istruzioni complesse.

FunzionalitàDisponibilità
ChatGPT Images 2.0 (standard)Tutti gli utenti ChatGPT e Codex
Modalità thinkingChatGPT Plus, Pro, Business (Enterprise presto)
API gpt-image-2Disponibile da subito

La linea guida di OpenAI per questo lancio: il modello “passa dalla generazione di immagini al design strategico, da uno strumento a un sistema visivo.”

🔗 Presentazione di ChatGPT Images 2.0 🔗 Tweet @OpenAI


Google Deep Research e Deep Research Max

21 aprile — Google DeepMind lancia due agenti di ricerca autonomi alimentati da Gemini 3.1 Pro: Deep Research e Deep Research Max.

Questi agenti navigano sia sul web aperto sia su dati personalizzati — documenti interni, informazioni finanziarie specializzate — per produrre report professionali interamente citati.

Deep Research è ottimizzato per la velocità e la bassa latenza, ideale per le interfacce che richiedono risposte rapide. Deep Research Max sfrutta un tempo di calcolo esteso (extended test-time compute) per ragionare in modo iterativo, affinare le ricerche e produrre un report di alta qualità — progettato per l’elaborazione asincrona in background.

FunzionalitàDettaglio
Supporto MCPConnessione sicura a fonti proprietarie o di terze parti
Generazione nativa di visualPrimo agente a generare grafici e infografiche (HTML o Nano Banana 2)
Pianificazione collaborativaL’utente può affinare il piano di ricerca prima dell’esecuzione
MultimodalitàPDF, CSV, immagini, audio, video accettati in input
DisponibilitàAPI Gemini, partner a pagamento, anteprima pubblica

La generazione nativa di visual è notevole: Deep Research Max può produrre grafici e infografiche direttamente nei suoi report, in HTML o tramite Nano Banana 2, senza strumenti esterni. Le startup e le aziende Google Cloud beneficeranno di una disponibilità annunciata a breve.

🔗 Annuncio @GoogleDeepMind 🔗 Articolo blog.google


NVIDIA × Adobe × WPP — Agenti creativi per il marketing enterprise

20 aprile — NVIDIA amplia le sue collaborazioni strategiche con Adobe e WPP per distribuire agenti IA autonomi nelle operazioni di marketing enterprise. L’annuncio è accompagnato da una dimostrazione live all’Adobe Summit il 21 aprile, con Jensen Huang (CEO NVIDIA) e Shantanu Narayen (CEO Adobe).

La nuova soluzione Adobe CX Enterprise Coworker è orchestrata da agenti IA basati su:

  • NVIDIA OpenShell: ambiente di esecuzione sicuro, osservabile e verificabile per workflow agentici
  • NVIDIA Agent Toolkit e modelli Nemotron open-source
  • Adobe Firefly Foundry accelerato da infrastruttura NVIDIA AI

In concreto, un retailer globale può ora generare milioni di combinazioni prodotto/pubblico/canale in pochi minuti invece che in mesi. I gemelli digitali 3D (Omniverse + OpenUSD) servono da identità prodotto persistenti per automatizzare la produzione di contenuti ad alta fedeltà su larga scala.

🔗 Articolo blogs.nvidia.com 🔗 Tweet @NVIDIAAI


Claude Code v2.1.116

19–21 aprile — Claude Code v2.1.116 apporta una serie di miglioramenti mirati alle prestazioni, all’affidabilità e all’esperienza terminale.

L’aggiornamento più tangibile: il comando /resume è fino al 67 % più veloce sulle grandi sessioni (40 Mo+), con una migliore gestione degli input “dead-fork”. Anche l’avvio MCP è più rapido con più server stdio configurati.

Esperienza utente:

  • L’indicatore di riflessione mostra ora l’avanzamento inline (“still thinking”, “thinking more”, “almost done thinking”), sostituendo la riga di indice separata
  • /config può cercare per valore di opzione (es.: cercare “vim” trova il parametro Editor mode)
  • /doctor può essere aperto mentre Claude risponde, senza aspettare la fine del turno

Sicurezza: il sandbox auto-allow non aggira più la verifica dei percorsi pericolosi per rm/rmdir che puntano a /, $HOME o ad altre directory di sistema critiche.

8 correzioni terminali includono: protocollo tastiera Kitty (Ctrl+-, Cmd+Sinistra/Destra), rendering degli script Devanagari, blocco Ctrl+Z tramite processo wrapper, duplicazione dello scrollback in modalità inline e diverse correzioni per VS Code/Warp/Ghostty.

CategoriaModifica chiave
Prestazioni/resume 67 % più veloce sulle sessioni 40 Mo+
UXThinking spinner progressivo, /config per valore
SicurezzaSandbox rispetta la protezione dei percorsi critici
Terminali8 correzioni (Kitty, VS Code, Warp, Ghostty, WezTerm)
PluginAuto-install delle dipendenze mancanti

🔗 CHANGELOG Claude Code


Live Artifacts in Claude Cowork

20 aprile — Anthropic lancia i “Live Artifacts” in Claude Cowork: dashboard e tracker dinamici direttamente collegati alle applicazioni e ai file dell’utente.

A differenza degli artefatti classici (statici), i Live Artifacts si aggiornano automaticamente all’apertura con i dati correnti. Sono salvati in una nuova scheda dedicata con storico delle versioni, accessibile da qualsiasi sessione.

“In Cowork, Claude can now build live artifacts: dashboards and trackers connected to your apps and files. Open one any time and it refreshes with current data.”

🇮🇹 “In Cowork, Claude può ora creare artefatti dinamici: dashboard e tracker collegati alle tue applicazioni e ai tuoi file. Aprine uno in qualsiasi momento e si aggiorna con i dati attuali.”@claudeai su X

La funzionalità è disponibile su tutti i piani a pagamento tramite un aggiornamento dell’app Claude.

🔗 Annuncio @claudeai


Codex in enterprise: Codex Labs e 7 partner integratori

21 aprile — OpenAI compie un nuovo passo nel deployment enterprise di Codex: 4 milioni di sviluppatori lo usano ogni settimana (contro 3 milioni all’inizio di aprile, cioè +33 % in due settimane), e lancia contemporaneamente Codex Labs insieme a un programma di partnership con 7 integratori globali.

Codex Labs porta gli esperti OpenAI direttamente nelle organizzazioni per workshop pratici e sessioni di lavoro, con l’obiettivo di aiutare i team a passare da un uso sperimentale a un deployment riproducibile.

I 7 partner integratori (GSI): Accenture, Capgemini, CGI, Cognizant, Infosys, PwC e Tata Consultancy Services.

AziendaUso di Codex
Virgin AtlanticCopertura dei test, riduzione del debito tecnico
RampAccelerazione delle code review
NotionSviluppo rapido di nuove funzionalità
CiscoComprensione di grandi repository interconnessi
RakutenIncident response

Codex si estende ora oltre lo sviluppo software: navigazione nel browser, generazione di immagini, memoria, orchestrazione di attività trasversali.

🔗 Scaling Codex to enterprises worldwide


Nano Banana Pro in Google AI Studio

20 aprile — Gli abbonati Google AI Pro e Ultra beneficiano ora di un accesso esteso a Google AI Studio senza chiave API richiesta: accesso a Nano Banana Pro e ai modelli Gemini Pro con limiti d’uso aumentati.

Basta accedere con il proprio account abbonato per passare dal prototipo alla produzione. Questa evoluzione posiziona l’abbonamento Google AI come un ponte pratico per gli sviluppatori che desiderano sperimentare senza la complessità della fatturazione a richiesta.

🔗 Annuncio @GoogleAI 🔗 Articolo blog.google


Kimi FlashKDA open-source

21 aprile — Moonshot AI pubblica open-source FlashKDA, la loro implementazione CUTLASS ad alte prestazioni dei kernel Kimi Delta Attention (KDA).

MetricaValore
Speedup prefill vs baseline1,72× a 2,22× su H20
IntegrazioneBackend drop-in per flash-linear-attention
RequisitiSM90+, CUDA 12.9+, PyTorch 2.4+

FlashKDA funziona come backend intercambiabile (drop-in) per flash-linear-attention. L’integrazione è disponibile tramite la PR fla-org/flash-linear-attention#852.

🔗 Repo GitHub FlashKDA 🔗 Tweet @Kimi_Moonshot


Git 2.54

20 aprile — Git 2.54 è disponibile con tre evoluzioni strutturali.

git history (sperimentale) — Nuova sotto-commanda per riscrivere la cronologia senza passare da git rebase -i :

  • git history reword <commit> : modificare il messaggio di un commit e riscrivere i branch in-place
  • git history split <commit> : dividere un commit in due in modo interattivo

Config-based hooks — Gli hook possono ora essere definiti nei file di configurazione Git, non solo in .git/hooks. Ciò consente la condivisione tra più repository tramite ~/.gitconfig, più hook per lo stesso evento e la disattivazione individuale tramite hook.<name>.enabled = false.

Geometric repacking predefinitogit maintenance usa ora la strategia geometrica per impostazione predefinita, migliorando le prestazioni senza configurazione aggiuntiva.

🔗 Highlights from Git 2.54 🔗 Tweet @github


Genspark Build in anteprima pubblica

21 aprile — Genspark lancia Genspark Build in anteprima pubblica (public preview): uno strumento per creare app e siti web alimentato da Claude Opus 4.7, che copre l’intero processo dall’idea al mockup design, al prototipo e al codice funzionante.

Gli utenti Plus e Pro beneficiano di 3 giorni di accesso senza crediti dal 21 al 24 aprile (9h PT). Genspark specifica di lanciare “rough edges and all” — lo strumento è in costruzione attiva.

Lo stesso giorno, Genspark integra anche Lyria 3 Music nel suo AI Music Agent e Gemini 3.1 Flash TTS nel suo AI Audio Agent.

🔗 Tweet Genspark Build 🔗 Tweet Lyria 3 + TTS


Cohere — Ricerca sul decoding speculativo per modelli MoE

21 aprile — Cohere pubblica un articolo di ricerca tecnica sull’ottimizzazione dei modelli a miscela di esperti (Mixture-of-Experts, MoE) con il decoding speculativo (speculative decoding).

Il team valida sui suoi modelli MoE in produzione — incluso Command A (111 miliardi di parametri) — una curva di guadagno non monotona in base alla dimensione del batch: i guadagni aumentano inizialmente per poi diminuire. Vengono identificati due meccanismi chiave: la correlazione temporale nel routing degli esperti riduce del 20 al 31 % il numero di esperti unici da caricare in memoria, e un ammortamento dei costi fissi spiega i guadagni elevati a BS=1.

🔗 Articolo Cohere


Genspark Claw: Kimi K2.6 già al day one

21 aprile — Genspark integra Kimi K2.6 nel suo strumento Claw già il giorno del lancio (Day 0), tramite una partnership con Fireworks AI che ha accompagnato le fasi di pre-lancio e di test.

🔗 Tweet @genspark_ai


Anthropic STEM Fellows Program

21 aprile — Anthropic lancia il programma STEM Fellows, rivolto a esperti in scienze e ingegneria per lavorare a fianco dei team di ricerca su progetti di pochi mesi, con base a San Francisco.

🔗 Annuncio @AnthropicAI


Cosa significa

Il 21 aprile segna una convergenza tra ragionamento e generazione multimodale. gpt-image-2 illustra una tendenza chiara: i modelli generativi integrano il ragionamento come livello di orchestrazione, non solo come miglioramento della qualità. Il risultato è un modello capace di cercare, generare, verificare e correggere nella stessa sessione.

Deep Research Max spinge la stessa logica sul versante della ricerca: con il supporto MCP, l’agente può accedere a dati proprietari strutturati, aprendo la strada a workflow analitici autonomi senza esportare dati sensibili verso servizi terzi.

La partnership NVIDIA × Adobe × WPP segnala che l’adozione enterprise dell’IA creativa esce dalla fase pilota. OpenShell come runtime verificabile risponde a un vincolo reale delle grandi organizzazioni: gli agenti autonomi devono poter essere osservati e tracciati, non solo performanti.

Sul fronte degli strumenti, i config-based hooks di Git 2.54 sono un’evoluzione architetturale discreta ma importante: gli hook condivisi tra repository tramite ~/.gitconfig cambieranno le pratiche di team per la standardizzazione dei workflow CI locali.


Fonti - Introduzione a ChatGPT Images 2.0

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator