Tre annunci dominano la fine del mese: OpenAI chiude il più grande round di finanziamento privato nella storia della tech con 122 miliardi di dollari e una valutazione di 852 miliardi, Qwen compie un passo avanti con un modello omnimodale nativo capace di vedere, ascoltare e programmare simultaneamente, e il responsabile di Claude Code pubblica un thread virale che svela 15 funzionalità poco conosciute dello strumento. La settimana è anche segnata dal lancio del Secure Intelligence Institute di Perplexity, da nuovi strumenti GitHub Copilot e da iniziative infrastrutturali di Runway e NVIDIA.
OpenAI raccoglie 122 miliardi di dollari
31 marzo — OpenAI annuncia la chiusura del suo ultimo round di finanziamento con 122 miliardi di dollari di capitale impegnato, per una valutazione post-money di 852 miliardi di dollari. È uno dei più grandi round privati nella storia della tecnologia.
Il round è co-guidato da SoftBank e a16z, con la partecipazione strategica di Amazon, NVIDIA e Microsoft. Per la prima volta, OpenAI ha esteso la partecipazione a investitori individuali tramite banche, raccogliendo oltre 3 miliardi di dollari da privati. ARK Invest integrerà inoltre OpenAI in diversi fondi indicizzati quotati (ETF).
A supporto di questa raccolta, OpenAI pubblica metriche di crescita:
| Indicatore | Valore |
|---|---|
| Utenti attivi settimanali ChatGPT | 900 milioni |
| Abbonati a pagamento ChatGPT | 50 milioni |
| Ricavi mensili | 2 miliardi di dollari |
| Tokens processati dall’API (al minuto) | 15 miliardi |
| Utenti settimanali Codex | 2 milioni (+5× in 3 mesi) |
| Crescita mensile di Codex | +70% |
La società descrive una roadmap incentrata su una “AI superapp” (AI superapp): un’interfaccia unificata che raccoglie ChatGPT, Codex, la ricerca web e gli agenti IA. L’obiettivo dichiarato è superare il miliardo di utenti attivi settimanali. Le aziende rappresentano già il 40% dei ricavi.
GPT-5.4, il modello più recente di OpenAI, è descritto come portatore di miglioramenti nel ragionamento, nella programmazione e nei flussi di lavoro agentici (agentic workflows). La crescita di OpenAI viene presentata come 4 volte più rapida rispetto a Google e Meta allo stesso stadio.
Qwen3.5-Omni: modello omnimodale nativo
29 marzo — Alibaba Qwen lancia Qwen3.5-Omni, un modello progettato nativamente per gestire testo, immagini, audio e video in un unico modello unificato. Contrariamente alle approcci multimodali classici che aggiungono modalità a strati, questo modello elabora questi input simultaneamente.
Le capacità a livello grezzo sono rilevanti: fino a 10 ore di audio o 400 secondi di video 720p nativamente, addestrato su oltre 100 milioni di ore di dati, riconoscimento vocale in 113 lingue ed espressione in 36 lingue.
Funzionalità principale: Audio-Visual Vibe Coding
La funzionalità più direttamente utilizzabile è l‘“Audio-Visual Vibe Coding”: l’utente descrive il proprio progetto a voce davanti a una videocamera e Qwen3.5-Omni-Plus genera un sito web o un gioco funzionante. È un’applicazione del concetto di codifica per intenzione (vibe coding) estesa ad audio e video in tempo reale.
Prestazioni a confronto
| Categoria | Qwen3.5-Omni-Plus | Gemini 3.1 Pro |
|---|---|---|
| DailyOmni (audio/vision) | 84,6 | 82,7 |
| WorldScene | 62,8 | 65,5 |
| QualocommInteractive | 68,5 | 52,3 |
| OmniClear | 64,8 | 55,5 |
| IFEval (testo) | 89,7 | 93,5 |
| MMLU-Redux | 94,2 | 90,0 |
Il modello supera Gemini 3.1 Pro sui benchmark audio ed è equivalente nella comprensione audio-visiva.
Capacità vocali
- Controllo vocale fine: regolazione dell’emozione, del ritmo e del volume in tempo reale
- Clonazione vocale (Voice Cloning) da un breve campione (deployment ingegneristico annunciato a breve)
- Turno di parola intelligente (Semantic Interruption) che comprende l’intento reale e ignora il rumore ambientale
- Ricerca web integrata e chiamate di funzione complesse
Famiglia di modelli
| Variante | Posizionamento |
|---|---|
| Qwen3.5-Omni-Plus | Prestazioni SOTA, captioning audio-visivo dettagliato |
| Qwen3.5-Omni-Plus-Realtime | Voice Control, WebSearch, Voice Clone, Semantic Interruption |
| Qwen3.5-Omni-Flash | Velocità |
| Qwen3.5-Omni-Light | Leggerezza |
Accesso tramite chat.qwen.ai (pulsante VoiceChat/VideoChat) e l’API Alibaba Cloud.
Nota aggiuntiva: Qwen 3.6 Plus Preview è disponibile gratuitamente su OpenRouter per un periodo limitato — gli scambi vengono raccolti durante questo periodo per migliorare il modello.
15 funzionalità nascoste di Claude Code
30 marzo — Boris Cherny, responsabile di Claude Code presso Anthropic, ha pubblicato un thread che rivela 15 funzionalità poco documentate dello strumento. Il thread ha raggiunto 3,6 milioni di visualizzazioni, 2.000 repost e 22.000 like.
“I wanted to share a bunch of my favorite hidden and under-utilized features in Claude Code. I’ll focus on the ones I use the most. Here goes.”
🇮🇹 Volevo condividere alcune delle mie funzionalità preferite, poco conosciute e poco sfruttate in Claude Code. Mi concentrerò su quelle che uso di più. Cominciamo. — @bcherny su X
Mobilità e sessioni a distanza
- L’app Claude per iOS e Android include una scheda Code che permette di programmare dal telefono
--teleport(o/teleport) permette di spostare una sessione cloud su una macchina locale;/remote-controlpermette di pilotare una sessione locale da qualsiasi dispositivo- Cowork Dispatch: controllo remoto sicuro della Claude Desktop App da mobile, con accesso ai server MCP (Model Context Protocol), al browser, ecc.
Automazione
/loope/scheduleconsentono di avviare Claude automaticamente a intervalli definiti, fino a una settimana — Cherny utilizza/loop 5m /babysitper una revisione del codice e un rebase automatici in continuo- I hook (
SessionStart,PreToolUse, ecc.) permettono di iniettare logica deterministica nel ciclo dell’agente, per esempio per instradare le richieste di permesso verso WhatsApp
Parallelizzazione
/batchdistribuisce il lavoro verso decine, centinaia o addirittura migliaia di agenti in parallelo — utile per migrazioni di codice su larga scalaclaude -wavvia sessioni parallele in spazi di lavoro git (git worktrees) distinti
Produttività quotidiana
/btwpermette di porre una domanda rapida mentre un agente lavora, senza interrompere il compito in corso/branchconsente di biforcare (fork) una sessione; oppure via CLI:claude --resume <session-id> --fork-session--agentconsente di definire agenti personalizzati in.claude/agents/con un sistema di prompt e strumenti configurabili--add-dir//add-dirdà a Claude accesso a più cartelle o repository simultaneamente--bareaccelera l’avvio SDK fino a 10× (evita il caricamento di CLAUDE.md, dei parametri e dei server MCP)/voiceattiva l’immissione vocale (barra spaziatrice in CLI, pulsante dedicato su Desktop, dettatura iOS)- Estensione Chrome (beta): Claude Code + Chrome per testare applicazioni web, eseguire il debug dei log della console e automatizzare il browser
Claude Code: auto mode esteso a Enterprise e API
30 marzo — L’auto mode di Claude Code, lanciato il 24 marzo per gli utenti Pro e Max, è ora disponibile sul piano Enterprise e per gli sviluppatori che accedono all’API. Questa funzionalità permette a Claude di prendere da solo le decisioni di approvazione delle azioni (scrittura di file, comandi bash) invece di richiedere l’input dell’utente a ogni passo.
Per attivarlo in un ambiente Enterprise o tramite API:
claude --enable-auto-mode
L’auto mode si basa su classificatori interni che valutano il rischio di ciascuna azione prima di eseguirla, offrendo un bilanciamento tra la modalità permissiva (--dangerously-skip-permissions) e le approvazioni manuali.
30 marzo — Cowork Dispatch può ora avviare task di codifica con un modello specifico, menzionato direttamente in linguaggio naturale nell’istruzione.
Perplexity lancia il Secure Intelligence Institute
31 marzo — Perplexity lancia il Secure Intelligence Institute (SII), un laboratorio di ricerca dedicato alla sicurezza, alla privacy e alla safety dei sistemi IA avanzati. L’Istituto è diretto dal Dr. Ninghui Li — Samuel D. Conte Professor all’Università Purdue, Fellow ACM e IEEE, ex presidente di ACM SIGSAC —, con partnership accademiche che includono il gruppo di crittografia applicata di Dan Boneh e il Gong Lab di Neil Gong.
Il SII pubblica tre primi lavori:
| Pubblicazione | Tipo | Descrizione |
|---|---|---|
| BrowseSafe | Benchmark open-source | 14.700+ scenari di attacco reali, 14 categorie di rischio per la navigazione IA |
| Messa in sicurezza degli agenti NIST/CAISI | Policy | Risposta al RFI (Request for Information) sulla messa in sicurezza degli agenti autonomi |
| Building Security Into Comet | Architettura | Difesa in profondità del browser IA Comet |
Il SII traduce la sua ricerca in miglioramenti concreti per i sistemi Perplexity e condivide i suoi lavori con l’ecosistema IA.
🔗 Secure Intelligence Institute
Cohere e Ensemble: LLM specializzato nella gestione del ciclo dei ricavi per la sanità
31 marzo — Cohere ed Ensemble annunciano la costruzione del primo grande modello di linguaggio (large language model / LLM) nativo per la gestione del ciclo dei ricavi (Revenue Cycle Management / RCM) dell’industria sanitaria statunitense.
Ensemble offre una soluzione end-to-end per ospedali e gruppi medici, dalla presa degli appuntamenti alla fatturazione finale. Diversamente dalle offerte concorrenti che incapsulano LLM generali in prompt specializzati, questo modello è completamente personalizzato sulla famiglia Command di Cohere.
| Dominio | Capacità |
|---|---|
| Finanziario | Predizione dei rifiuti prima dell’invio, controllo qualità della fatturazione in continuo |
| Clinico | Guida alla documentazione al punto di cura, assemblaggio dei fascicoli per le chiamate |
| Agentico | Orchestrazione multi-step del ciclo dei ricavi |
Il modello è stato addestrato sui dati di pre-addestramento di Cohere, sui log operativi di Ensemble, su fonti pubbliche di conoscenza RCM e su annotazioni di esperti di dominio. Un framework di valutazione (benchmark) specifico per il dominio co-sviluppato misurerà le prestazioni rispetto agli LLM generali su compiti RCM reali.
GitHub Copilot: sviluppo agent-first e integrazione con Slack
31 marzo — Tyler McGoffin, ricercatore senior del team Copilot Applied Science di GitHub, pubblica un resoconto sulla costruzione di uno strumento interno con Copilot come agente di coding principale. Lo strumento automatizza l’analisi delle traiettorie degli agenti IA su benchmark come TerminalBench2 e SWEBench-Pro.
Le pratiche descritte: uso della modalità /plan prima di scrivere codice, creazione di “test di contratto” (contract tests) che solo un umano può modificare, prompt dettagliati invece che succinti, e manutenzione automatica settimanale via /plan Review the code for any missing tests.... La conclusione: le qualità di un buon ingegnere (pianificazione, contesto, comunicazione) sono identiche per collaborare efficacemente con un agente IA.
30 marzo — L’app GitHub per Slack integra ora Copilot per creare issue GitHub direttamente da Slack in linguaggio naturale. Basta menzionare @GitHub in qualsiasi canale e descrivere il lavoro.
| Funzionalità | Dettaglio |
|---|---|
| Creazione in linguaggio naturale | Descrizione → issue strutturate (titolo, corpo, assegnatari, label, milestone) |
| Sotto-issue | Decomporre il lavoro in issue padre/figlio da un unico messaggio |
| Modalità conversazione | Iterare sulle issue prima di crearle |
31 marzo — GitHub presenta il Copilot SDK che permette di integrare flussi di lavoro agentici (agentic workflows) in applicazioni di terze parti secondo 3 modelli architetturali.
🔗 Blog GitHub - Agent-driven development 🔗 Changelog GitHub - Create issues from Slack
Runway: fondo d’investimento e programma per startup
31 marzo — Runway lancia due iniziative simultanee.
Il Runway Fund è un fondo d’investimento per startup in fase iniziale (early-stage) nell’IA, nei media e nella simulazione del mondo. Impegno iniziale fino a 10 milioni di dollari, con investimenti fino a 500.000 dollari in pre-seed/seed. Focus su tre assi: ricerca IA (modelli del mondo e IA generativa), nuove applicazioni (strato applicativo sugli LLM), e nuovi media e contenuti. Sono già stati effettuati investimenti in Cartesia, LanceDB e Tamarind Bio.
Runway Builders è un programma di accompagnamento per startup dall’amorçage alla serie C che costruiscono prodotti con video generativo e IA conversazionale in tempo reale. I partecipanti ricevono crediti API omaggio, i più alti limiti di rate e accesso a una community privata.
🔗 Runway Fund 🔗 Runway Builders
NVIDIA ed Emerald AI: fabbriche di IA flessibili sulla rete elettrica
31 marzo — NVIDIA ed Emerald AI presentano al CERAWeek un nuovo approccio per le fabbriche di IA (AI factories): considerarle come asset flessibili della rete elettrica piuttosto che come carichi statici. L’architettura si basa su NVIDIA Vera Rubin DSX e sulla piattaforma Conductor di Emerald AI.
Partner energetici annunciati: AES, Constellation, Invenergy, NextEra Energy, Nscale Energy e Vistra. Annunci correlati:
- Maximo: impianto solare robotico IA da 100 MW operativo a Bellefield con NVIDIA Isaac Sim
- TerraPower + SoftServe: digital twin NVIDIA Omniverse per ridurre i tempi di progettazione delle centrali nucleari Natrium
- Adaptive Construction Solutions: programma nazionale di formazione per la costruzione di fabbriche di IA
- GE Vernova, Schneider Electric, Vertiv: reference designs convalidati per Vera Rubin
Jensen Huang descrive l’energia come lo strato fondamentale di una “torta IA a cinque strati” (five-layer AI cake).
In breve
Gemini Live su Gemini 3.1 Flash Live — 30 marzo — Google ha confermato il roll-out del modello Gemini 3.1 Flash Live nell’app Gemini Live, disponibile per tutti gli utenti. Questa transizione (annunciata il 26 marzo) offre conversazioni audio più naturali e una migliore accuratezza in ambienti rumorosi. 🔗 Tweet di @GeminiApp
Manus: controllo da telefono per Desktop — 30 marzo — Manus aggiunge la possibilità di controllare l’app Desktop dallo smartphone: avvio di attività, accesso ai file e lancio di flussi di lavoro senza toccare il computer. 🔗 Tweet di @ManusAI
Midjourney V8 teaser — 29 marzo — David Holz (fondatore di Midjourney) annuncia una versione “radicalmente diversa” di V8, “in arrivo molto presto”. Nessuna data annunciata. 🔗 Tweet di @DavidSHolz
Claude Code v2.1.87 — Correzione di un bug in Cowork Dispatch dove i messaggi non venivano recapitati. 🔗 CHANGELOG di GitHub
Cosa significa
La raccolta fondi di OpenAI a una valutazione di 852 miliardi segna un punto di svolta: a questi livelli il divario fra gli attori principali e il resto del settore si approfondisce strutturalmente. Con 900 milioni di utenti settimanali e un obiettivo di un miliardo, ChatGPT si impone come un’infrastruttura di massa, non solo come prodotto tecnologico.
Il lancio di Qwen3.5-Omni illustra la crescente competizione sui modelli omnimodali. L’Audio-Visual Vibe Coding rappresenta un’evoluzione concreta del coding per intenzione (vibe coding) — il passaggio dal testo alla voce e al video come interfaccia principale verso l’IA generativa.
Dalla parte degli strumenti per sviluppatori, il thread di Boris Cherny rivela che Claude Code ha accumulato funzionalità avanzate (parallelizzazione massiva con /batch, automazione tramite hooks, sessioni distribuite) che sono rimaste poco note per mancanza di documentazione visibile. L’estensione dell’auto mode ai piani Enterprise segue una traiettoria classica: validazione in anteprima, poi rilascio progressivo.
Infine, la creazione del Secure Intelligence Institute da parte di Perplexity e le iniziative di Cohere nel settore sanitario segnalano una tendenza: gli attori di secondo piano cercano di differenziarsi su verticali specializzati (sicurezza IA, sanità regolamentata) piuttosto che competere frontalmente sui modelli generali.
Fonti
- OpenAI - Accelerare la prossima fase dell’IA
- Tweet OpenAI - Raccolta fondi
- Tweet di Alibaba Qwen - Qwen3.5-Omni
- Thread di Boris Cherny - 15 funzionalità di Claude Code
- Tweet di @claudeai - Auto mode Enterprise
- Tweet di @noahzweben - modello Dispatch
- CHANGELOG di Claude Code su GitHub
- Perplexity - Secure Intelligence Institute
- Tweet di Perplexity - SII
- Blog di Cohere - LLM RCM per la sanità
- Blog di GitHub - Sviluppo guidato da agenti
- Changelog di GitHub - Creare issue da Slack
- Runway Fund
- Runway Builders
- Blog NVIDIA - Fabbriche AI
- Tweet di @GeminiApp - Gemini Live 3.1 Flash
- Tweet di @ManusAI - Controllo da telefono
- Tweet di @DavidSHolz - Midjourney V8
- Tweet di @OpenRouter - Anteprima Qwen 3.6 Plus
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator