Trois annonces dominent la fin du mois : OpenAI boucle la plus grande levée de fonds privée de l’histoire de la tech avec 122 milliards de dollars à une valorisation de 852 milliards, Qwen franchit une étape avec un modèle omnimodal natif capable de voir, entendre et coder simultanément, et le responsable de Claude Code publie un thread viral révélant 15 fonctionnalités méconnues de l’outil. La semaine est aussi marquée par le lancement du Secure Intelligence Institute de Perplexity, de nouveaux outils GitHub Copilot et d’initiatives infrastructure chez Runway et NVIDIA.
OpenAI lève 122 milliards de dollars
31 mars — OpenAI annonce la clôture de son dernier tour de financement avec 122 milliards de dollars de capital engagé, pour une valorisation post-money de 852 milliards de dollars. C’est l’un des plus grands tours de financement privés de l’histoire de la tech.
Le tour est co-dirigé par SoftBank et a16z, avec la participation stratégique d’Amazon, NVIDIA et Microsoft. Pour la première fois, OpenAI a étendu la participation à des investisseurs individuels via des banques, levant plus de 3 milliards de dollars auprès de particuliers. ARK Invest intégrera également OpenAI dans plusieurs fonds indiciels cotés (Exchange-Traded Funds / ETF).
À l’appui de cette levée, OpenAI publie des métriques de croissance :
| Indicateur | Valeur |
|---|---|
| Utilisateurs actifs hebdomadaires ChatGPT | 900 millions |
| Abonnés payants ChatGPT | 50 millions |
| Revenus mensuels | 2 milliards de dollars |
| Tokens traités par l’API (par minute) | 15 milliards |
| Utilisateurs hebdomadaires Codex | 2 millions (+5× en 3 mois) |
| Croissance Codex d’un mois sur l’autre | +70% |
La société décrit une feuille de route articulée autour d’une “IA superapp” (AI superapp) : une interface unifiée regroupant ChatGPT, Codex, la recherche web et les agents IA. L’objectif affiché est de dépasser le milliard d’utilisateurs actifs hebdomadaires. Les entreprises représentent déjà 40% des revenus.
GPT-5.4, le modèle le plus récent d’OpenAI, est décrit comme apportant des gains en raisonnement, en codage et dans les flux de travail agentiques (agentic workflows). La croissance d’OpenAI est présentée comme 4 fois plus rapide que celle de Google et Meta à leur stade équivalent.
Qwen3.5-Omni : modèle omnimodal natif
29 mars — Alibaba Qwen lance Qwen3.5-Omni, un modèle conçu nativement pour traiter texte, images, audio et vidéo en un seul modèle unifié. Contrairement aux approches multimodales classiques qui ajoutent des modalités en couches, ce modèle traite ces entrées simultanément.
Les capacités brutes sont importantes : jusqu’à 10 heures d’audio ou 400 secondes de vidéo 720p nativement, entraîné sur plus de 100 millions d’heures de données, reconnaissance de la parole en 113 langues et expression dans 36 langues.
Fonctionnalité phare : Audio-Visual Vibe Coding
La fonctionnalité la plus directement utilisable est l‘“Audio-Visual Vibe Coding” : l’utilisateur décrit son projet à voix haute devant une caméra, et Qwen3.5-Omni-Plus génère un site web ou un jeu fonctionnel. C’est une application du concept de codage par l’intention (vibe coding) étendu à l’audio et à la vidéo en temps réel.
Performances comparées
| Catégorie | Qwen3.5-Omni-Plus | Gemini 3.1 Pro |
|---|---|---|
| DailyOmni (audio/vision) | 84,6 | 82,7 |
| WorldScene | 62,8 | 65,5 |
| QualocommInteractive | 68,5 | 52,3 |
| OmniClear | 64,8 | 55,5 |
| IFEval (texte) | 89,7 | 93,5 |
| MMLU-Redux | 94,2 | 90,0 |
Le modèle surpasse Gemini 3.1 Pro sur les benchmarks audio et est équivalent sur la compréhension audio-visuelle.
Capacités vocales
- Contrôle vocal fin : ajustement de l’émotion, du rythme et du volume en temps réel
- Clonage vocal (Voice Cloning) depuis un court échantillon (déploiement ingénierie annoncé prochainement)
- Tour de parole intelligent (Semantic Interruption) qui comprend l’intention réelle et ignore le bruit ambiant
- Recherche web intégrée et appels de fonctions complexes
Famille de modèles
| Variante | Positionnement |
|---|---|
| Qwen3.5-Omni-Plus | Performances SOTA, captioning audio-visuel détaillé |
| Qwen3.5-Omni-Plus-Realtime | Voice Control, WebSearch, Voice Clone, Semantic Interruption |
| Qwen3.5-Omni-Flash | Vitesse |
| Qwen3.5-Omni-Light | Légèreté |
Accès via chat.qwen.ai (bouton VoiceChat/VideoChat) et l’API Alibaba Cloud.
Note complémentaire : Qwen 3.6 Plus Preview est disponible gratuitement sur OpenRouter pour une durée limitée — les échanges sont collectés pendant cette période pour améliorer le modèle.
15 fonctionnalités cachées de Claude Code
30 mars — Boris Cherny, responsable de Claude Code chez Anthropic, a publié un thread révélant 15 fonctionnalités peu documentées de l’outil. Le thread a atteint 3,6 millions de vues, 2 000 reposts et 22 000 likes.
“I wanted to share a bunch of my favorite hidden and under-utilized features in Claude Code. I’ll focus on the ones I use the most. Here goes.”
🇫🇷 Je voulais partager quelques-unes de mes fonctionnalités préférées, peu connues et sous-utilisées dans Claude Code. Je vais me concentrer sur celles que j’utilise le plus. C’est parti. — @bcherny sur X
Mobilité et sessions à distance
- L’application Claude sur iOS et Android inclut un onglet Code permettant de coder depuis son téléphone
--teleport(ou/teleport) permet de basculer une session cloud vers une machine locale ;/remote-controlpermet de piloter une session locale depuis n’importe quel appareil- Cowork Dispatch : contrôle à distance sécurisé de Claude Desktop App depuis mobile, avec accès aux serveurs MCP (Model Context Protocol), au navigateur, etc.
Automatisation
/loopet/schedulepermettent de lancer Claude automatiquement à intervalles définis, jusqu’à une semaine — Cherny utilise/loop 5m /babysitpour une revue de code et un rebase automatiques en continu- Les hooks (
SessionStart,PreToolUse, etc.) permettent d’injecter de la logique déterministe dans le cycle de l’agent, par exemple pour router les demandes de permission vers WhatsApp
Parallélisation
/batchdistribue le travail vers des dizaines, centaines voire milliers d’agents en parallèle — utile pour les migrations de code à grande échelleclaude -wdémarre des sessions parallèles dans des espaces de travail git (git worktrees) distincts
Productivité quotidienne
/btwpermet de poser une question rapide pendant qu’un agent travaille, sans interrompre la tâche en cours/branchpermet de bifurquer (fork) une session ; ou via CLI :claude --resume <session-id> --fork-session--agentpermet de définir des agents personnalisés dans.claude/agents/avec un système prompt et des outils configurables--add-dir//add-dirdonne à Claude accès à plusieurs dossiers ou dépôts simultanément--bareaccélère le démarrage SDK jusqu’à 10× (évite le chargement de CLAUDE.md, des paramètres et des serveurs MCP)/voiceactive la saisie vocale (barre d’espace en CLI, bouton dédié sur Desktop, dictée iOS)- Extension Chrome (bêta) : Claude Code + Chrome pour tester les applications web, déboguer les journaux console et automatiser le navigateur
Claude Code : auto mode étendu à Enterprise et API
30 mars — L’auto mode de Claude Code, lancé le 24 mars pour les utilisateurs Pro et Max, est désormais disponible sur le plan Enterprise et pour les développeurs accédant à l’API. Cette fonctionnalité permet à Claude de prendre lui-même les décisions d’approbation d’actions (écriture de fichiers, commandes bash) au lieu de solliciter l’utilisateur à chaque étape.
Pour l’activer dans un environnement Enterprise ou API :
claude --enable-auto-mode
L’auto mode s’appuie sur des classificateurs internes qui évaluent le risque de chaque action avant de l’exécuter, offrant un équilibre entre le mode permissif (--dangerously-skip-permissions) et les approbations manuelles.
30 mars — Cowork Dispatch peut maintenant démarrer des tâches de codage avec un modèle spécifique, mentionné directement en langage naturel dans l’instruction.
Perplexity lance le Secure Intelligence Institute
31 mars — Perplexity lance le Secure Intelligence Institute (SII), un laboratoire de recherche dédié à la sécurité, la confidentialité et la sûreté des systèmes d’IA avancés. L’Institut est dirigé par le Dr. Ninghui Li — Samuel D. Conte Professor à l’Université Purdue, Fellow ACM et IEEE, ancien président d’ACM SIGSAC —, avec des partenariats académiques incluant le groupe de cryptographie appliquée de Dan Boneh et le Gong Lab de Neil Gong.
Le SII publie trois premiers travaux :
| Publication | Type | Description |
|---|---|---|
| BrowseSafe | Benchmark open-source | 14 700+ scénarios d’attaque réels, 14 catégories de risque pour la navigation IA |
| Sécurisation des agents NIST/CAISI | Politique | Réponse au RFI (Request for Information) sur la sécurisation des agents autonomes |
| Building Security Into Comet | Architecture | Défense en profondeur du navigateur IA Comet |
Le SII traduit ses recherches en améliorations concrètes des systèmes Perplexity et partage ses travaux avec l’écosystème IA.
🔗 Secure Intelligence Institute
Cohere et Ensemble : LLM spécialisé en gestion du cycle de revenus pour la santé
31 mars — Cohere et Ensemble annoncent la construction du premier grand modèle de langage (large language model / LLM) natif en gestion du cycle de revenus (Revenue Cycle Management / RCM) de l’industrie de la santé américaine.
Ensemble propose une solution de bout-en-bout pour hôpitaux et groupes médicaux, de la prise de rendez-vous à la facturation finale. Contrairement aux offres concurrentes qui encapsulent des LLM généraux dans des prompts spécialisés, ce modèle est entièrement personnalisé sur la famille Command de Cohere.
| Domaine | Capacité |
|---|---|
| Financier | Prédiction de refus avant soumission, contrôle qualité facturation en continu |
| Clinique | Guidage documentation au point de soin, assemblage de dossiers d’appel |
| Agentique | Orchestration multi-étapes du cycle de revenus |
Le modèle a été entraîné sur les données de pré-entraînement de Cohere, les journaux opérationnels d’Ensemble, des sources publiques de connaissances RCM et des annotations d’experts métier. Un cadre d’évaluation (benchmark) domaine-spécifique co-développé mesurera les performances par rapport aux LLM généraux sur des tâches RCM réelles.
GitHub Copilot : développement agent-first et intégration Slack
31 mars — Tyler McGoffin, chercheur senior de l’équipe Copilot Applied Science chez GitHub, publie un retour d’expérience sur la construction d’un outil interne avec Copilot comme agent de codage principal. L’outil automatise l’analyse de trajectoires d’agents IA sur des benchmarks comme TerminalBench2 et SWEBench-Pro.
Les pratiques décrites : utilisation du mode /plan avant de coder, création de “tests de contrat” (contract tests) que seul un humain peut modifier, prompts détaillés plutôt que succints, et maintenance automatique hebdomadaire via /plan Review the code for any missing tests.... La conclusion : les qualités d’un bon ingénieur (planification, contexte, communication) sont identiques pour collaborer efficacement avec un agent IA.
30 mars — L’app GitHub pour Slack intègre désormais Copilot pour créer des issues GitHub directement depuis Slack en langage naturel. Il suffit de mentionner @GitHub dans n’importe quel canal et de décrire le travail.
| Fonctionnalité | Détail |
|---|---|
| Création en langage naturel | Description → issues structurées (titre, corps, assignés, labels, jalons) |
| Sous-issues | Décomposer le travail en issues parent/enfant depuis un seul message |
| Mode conversation | Itérer sur les issues avant de les créer |
31 mars — GitHub présente le Copilot SDK permettant d’intégrer des flux de travail agentiques (agentic workflows) dans des applications tierces selon 3 modèles architecturaux.
🔗 Blog GitHub - Agent-driven development 🔗 Changelog GitHub - Issues depuis Slack
Runway : fonds d’investissement et programme startups
31 mars — Runway lance deux initiatives simultanées.
Le Runway Fund est un fonds d’investissement pour startups en phase initiale (early-stage) dans l’IA, les médias et la simulation du monde. Engagement initial jusqu’à 10 millions de dollars, avec des investissements allant jusqu’à 500 000 dollars en pré-amorçage et amorçage (pre-seed/seed). Focus sur trois axes : recherche IA (modèles du monde et IA générative), nouvelles applications (couche applicative sur LLMs), et nouveaux médias et contenus. Des investissements ont déjà été réalisés dans Cartesia, LanceDB et Tamarind Bio.
Runway Builders est un programme d’accompagnement pour startups de l’amorçage à la série C construisant des produits avec de la vidéo générative et de l’IA conversationnelle en temps réel. Les participants reçoivent des crédits API offerts, les limites de taux les plus élevées et un accès à une communauté privée.
🔗 Runway Fund 🔗 Runway Builders
NVIDIA et Emerald AI : usines d’IA flexibles sur le réseau électrique
31 mars — NVIDIA et Emerald AI présentent au CERAWeek une nouvelle approche pour les usines d’IA (AI factories) : les traiter comme des actifs flexibles du réseau électrique plutôt que comme des charges statiques. L’architecture repose sur NVIDIA Vera Rubin DSX et la plateforme Conductor d’Emerald AI.
Partenaires énergie annoncés : AES, Constellation, Invenergy, NextEra Energy, Nscale Energy et Vistra. Annonces associées :
- Maximo : installation solaire robotique IA de 100 MW opérationnelle à Bellefield avec NVIDIA Isaac Sim
- TerraPower + SoftServe : jumeau numérique (digital twin) NVIDIA Omniverse pour réduire les délais de conception de centrales nucléaires Natrium
- Adaptive Construction Solutions : programme national de formation à la construction d’usines d’IA
- GE Vernova, Schneider Electric, Vertiv : conceptions de référence (reference designs) validées pour Vera Rubin
Jensen Huang décrit l’énergie comme la couche fondamentale d’un “gâteau IA à cinq couches” (five-layer AI cake).
En bref
Gemini Live sur Gemini 3.1 Flash Live — 30 mars — Google a confirmé le déploiement du modèle Gemini 3.1 Flash Live dans l’application Gemini Live, disponible pour tous les utilisateurs. Cette transition (annoncée le 26 mars) apporte des conversations audio plus naturelles et une meilleure précision dans les environnements bruités. 🔗 Tweet @GeminiApp
Manus : contrôle depuis téléphone pour Desktop — 30 mars — Manus ajoute la possibilité de piloter l’application Desktop depuis son smartphone : démarrage de tâches, accès aux fichiers et lancement de flux de travail sans toucher l’ordinateur. 🔗 Tweet @ManusAI
Midjourney V8 teaser — 29 mars — David Holz (fondateur de Midjourney) annonce une version “radicalement différente” de V8, “arriving very soon”. Pas de date annoncée. 🔗 Tweet @DavidSHolz
Claude Code v2.1.87 — Correction d’un bug dans Cowork Dispatch où les messages n’étaient pas délivrés. 🔗 CHANGELOG GitHub
Ce que ça signifie
La levée d’OpenAI à 852 milliards de valorisation marque un point d’inflexion : à ces chiffres, l’écart entre les acteurs de premier plan et le reste du secteur se creuse structurellement. Avec 900 millions d’utilisateurs hebdomadaires et une cible d’un milliard, ChatGPT s’impose comme une infrastructure de masse, pas seulement un produit technologique.
Le lancement de Qwen3.5-Omni illustre la compétition croissante sur les modèles omnimodaux. L’Audio-Visual Vibe Coding représente une évolution concrète du codage par l’intention (vibe coding) — passer du texte à la voix et à la vidéo comme interface principale vers l’IA générative.
Du côté des outils développeurs, le thread de Boris Cherny révèle que Claude Code a accumulé des fonctionnalités avancées (parallélisation massive avec /batch, automatisation via hooks, sessions distribuées) qui restaient méconnues faute de documentation visible. L’extension aux plans Enterprise de l’auto mode suit une trajectoire classique : validation en preview, puis déploiement progressif.
Enfin, la création du Secure Intelligence Institute par Perplexity et les initiatives de Cohere dans la santé signalent une tendance : les acteurs de second rang cherchent à se différencier sur des verticaux spécialisés (sécurité IA, santé réglementée) plutôt que de concurrencer frontalement sur les modèles généraux.
Sources
- OpenAI - Accelerating the Next Phase of AI
- Tweet OpenAI - Levée de fonds
- Tweet Alibaba Qwen - Qwen3.5-Omni
- Thread Boris Cherny - 15 features Claude Code
- Tweet @claudeai - Auto mode Enterprise
- Tweet @noahzweben - Dispatch modèle
- CHANGELOG Claude Code GitHub
- Perplexity Secure Intelligence Institute
- Tweet Perplexity - SII
- Blog Cohere - LLM RCM santé
- Blog GitHub - Agent-driven development
- Changelog GitHub - Issues depuis Slack
- Runway Fund
- Runway Builders
- Blog NVIDIA - AI Factories
- Tweet @GeminiApp - Gemini Live 3.1 Flash
- Tweet @ManusAI - Contrôle téléphone
- Tweet @DavidSHolz - Midjourney V8
- Tweet @OpenRouter - Qwen 3.6 Plus Preview