Drei Ankündigungen dominieren das Monatsende: OpenAI schließt die größte private Finanzierung in der Geschichte der Tech-Branche mit 122 Milliarden Dollar bei einer Bewertung von 852 Milliarden ab, Qwen erreicht einen Meilenstein mit einem nativ omnimodalen Modell, das gleichzeitig sehen, hören und codieren kann, und der Verantwortliche von Claude Code veröffentlicht einen viralen Thread, der 15 wenig bekannte Funktionen des Tools offenlegt. Die Woche ist außerdem geprägt vom Start des Secure Intelligence Institute von Perplexity, neuen GitHub Copilot-Tools und Infrastrukturinitiativen bei Runway und NVIDIA.
OpenAI sammelt 122 Milliarden Dollar ein
31. März — OpenAI gibt den Abschluss seiner jüngsten Finanzierungsrunde mit 122 Milliarden Dollar zugesagtem Kapital bekannt, bei einer Post-Money-Bewertung von 852 Milliarden Dollar. Es ist eine der größten privaten Finanzierungsrunden in der Geschichte der Tech-Branche.
Die Runde wird gemeinsam von SoftBank und a16z geleitet, mit strategischer Beteiligung von Amazon, NVIDIA und Microsoft. Zum ersten Mal ermöglichte OpenAI auch Einzelinvestoren über Banken die Teilnahme und sammelte dabei mehr als 3 Milliarden Dollar von Privatpersonen. ARK Invest wird OpenAI zudem in mehreren börsengehandelten Indexfonds (Exchange-Traded Funds / ETF) aufnehmen.
Zur Unterstützung dieser Runde veröffentlicht OpenAI Wachstumskennzahlen:
| Indicateur | Valeur |
|---|---|
| Utilisateurs actifs hebdomadaires ChatGPT | 900 millions |
| Abonnés payants ChatGPT | 50 millions |
| Revenus mensuels | 2 milliards de dollars |
| Tokens traités par l’API (par minute) | 15 milliards |
| Utilisateurs hebdomadaires Codex | 2 millions (+5× en 3 mois) |
| Croissance Codex d’un mois sur l’autre | +70% |
Das Unternehmen beschreibt eine Roadmap, die um eine “KI-Superapp” (AI superapp) herum aufgebaut ist: eine einheitliche Oberfläche, die ChatGPT, Codex, Websuche und Agenten-Konzepte vereint. Das erklärte Ziel ist, die Milliarde an wöchentlich aktiven Nutzern zu überschreiten. Unternehmen machen bereits 40 % der Einnahmen aus.
GPT-5.4, das aktuellste Modell von OpenAI, wird als verbessernd für Schlussfolgerungsvermögen, Codierung und agentische Arbeitsabläufe (agentic workflows) beschrieben. OpenAIs Wachstum wird als viermal so schnell dargestellt wie das von Google und Meta in vergleichbarer Phase.
🔗 Offizielle Ankündigung OpenAI
Qwen3.5-Omni: natives omnimodales Modell
29. März — Alibaba Qwen stellt Qwen3.5-Omni vor, ein Modell, das nativ dafür konzipiert ist, Text, Bilder, Audio und Video in einem einzigen, einheitlichen Modell zu verarbeiten. Im Gegensatz zu klassischen multimodalen Ansätzen, die Modalitäten schichtweise hinzufügen, verarbeitet dieses Modell diese Eingaben simultan.
Die rohen Fähigkeiten sind beträchtlich: nativ bis zu 10 Stunden Audio oder 400 Sekunden Video in 720p, trainiert auf mehr als 100 Millionen Stunden Daten, Spracherkennung in 113 Sprachen und Ausgabe in 36 Sprachen.
Schlüssel-Feature: Audio-Visual Vibe Coding
Die unmittelbar nutzbarste Funktion ist das “Audio-Visual Vibe Coding”: Der Benutzer beschreibt sein Projekt laut vor einer Kamera, und Qwen3.5-Omni-Plus erzeugt eine funktionale Website oder ein Spiel. Es ist eine Anwendung des Konzepts des Intent-basierten Codings (vibe coding), erweitert auf Audio und Video in Echtzeit.
Vergleich der Leistungswerte
| Catégorie | Qwen3.5-Omni-Plus | Gemini 3.1 Pro |
|---|---|---|
| DailyOmni (audio/vision) | 84,6 | 82,7 |
| WorldScene | 62,8 | 65,5 |
| QualocommInteractive | 68,5 | 52,3 |
| OmniClear | 64,8 | 55,5 |
| IFEval (texte) | 89,7 | 93,5 |
| MMLU-Redux | 94,2 | 90,0 |
Das Modell übertrifft Gemini 3.1 Pro bei den Audio-Benchmarks und ist gleichwertig in der audio-visuellen Verständnisleistung.
Sprachfähigkeiten
- Feine Sprachsteuerung: Anpassung von Emotion, Rhythmus und Lautstärke in Echtzeit
- Voice Cloning (Voice Cloning) aus einem kurzen Sample (Engineering-Deployment demnächst angekündigt)
- Intelligente Redeunterbrechung (Semantic Interruption), die die tatsächliche Absicht versteht und Umgebungsgeräusche ignoriert
- Integrierte Websuche und komplexe Funktionsaufrufe
Modellfamilie
| Variante | Positionnement |
|---|---|
| Qwen3.5-Omni-Plus | SOTA-Leistung, detailliertes audio-visuelles Captioning |
| Qwen3.5-Omni-Plus-Realtime | Voice Control, WebSearch, Voice Clone, Semantic Interruption |
| Qwen3.5-Omni-Flash | Geschwindigkeit |
| Qwen3.5-Omni-Light | Leichtgewicht |
Zugriff über chat.qwen.ai (Button VoiceChat/VideoChat) und die Alibaba Cloud API.
Hinweis: Qwen 3.6 Plus Preview ist zeitlich begrenzt kostenlos über OpenRouter verfügbar — die Interaktionen werden in diesem Zeitraum gesammelt, um das Modell zu verbessern.
15 versteckte Funktionen von Claude Code
30. März — Boris Cherny, Leiter von Claude Code bei Anthropic, veröffentlichte einen Thread, der 15 wenig dokumentierte Funktionen des Tools offenlegt. Der Thread erreichte 3,6 Millionen Aufrufe, 2.000 Reposts und 22.000 Likes.
“I wanted to share a bunch of my favorite hidden and under-utilized features in Claude Code. I’ll focus on the ones I use the most. Here goes.”
🇩🇪 Ich wollte einige meiner liebsten, wenig bekannten und wenig genutzten Funktionen in Claude Code teilen. Ich werde mich auf die konzentrieren, die ich am häufigsten verwende. Los geht’s. — @bcherny auf X
Mobilität und Remote-Sessions
- Die Claude-App auf iOS und Android enthält einen Tab “Code”, der das Coden vom Telefon aus ermöglicht
--teleport(oder/teleport) erlaubt das Umschalten einer Cloud-Session auf eine lokale Maschine;/remote-controlermöglicht das Steuern einer lokalen Session von jedem Gerät aus- Cowork Dispatch: gesicherte Fernsteuerung der Claude Desktop App vom Mobilgerät, mit Zugriff auf MCP (Model Context Protocol), den Browser usw.
Automatisierung
/loopund/scheduleerlauben das automatische Starten von Claude in definierten Intervallen, bis zu einer Woche — Cherny nutzt/loop 5m /babysitfür kontinuierliche Code-Reviews und automatisches Rebase- Hooks (
SessionStart,PreToolUse, etc.) ermöglichen das Injizieren deterministischer Logik in den Agentenzyklus, z. B. zum Weiterleiten von Berechtigungsanfragen an WhatsApp
Parallelisierung
/batchverteilt Arbeit auf Dutzende, Hunderte oder sogar Tausende Agenten parallel — nützlich für großangelegte Code-Migrationenclaude -wstartet parallele Sessions in separaten git worktrees
Tägliche Produktivität
/btwerlaubt, eine schnelle Frage zu stellen, während ein Agent weiterarbeitet, ohne die aktuelle Aufgabe zu unterbrechen/branchermöglicht das Forken einer Session; oder via CLI:claude --resume <session-id> --fork-session--agenterlaubt das Definieren maßgeschneiderter Agenten in.claude/agents/mit einem Prompt-System und konfigurierbaren Tools--add-dir//add-dirgibt Claude Zugriff auf mehrere Ordner oder Repositories gleichzeitig--barebeschleunigt das SDK-Startup um bis zu 10× (vermeidet das Laden von CLAUDE.md, Parametern und MCP-Servern)/voiceaktiviert die Spracherfassung (Leertaste in der CLI, dedizierter Button auf dem Desktop, Diktierfunktion auf iOS)- Chrome-Erweiterung (Beta): Claude Code + Chrome zum Testen von Webanwendungen, Debuggen der Konsolenlogs und Automatisieren des Browsers
Claude Code: Auto-Mode erweitert auf Enterprise und API
30. März — Der Auto-Mode von Claude Code, am 24. März für Pro- und Max-Nutzer gestartet, ist jetzt auch im Enterprise-Plan und für Entwickler mit API-Zugang verfügbar. Diese Funktion erlaubt Claude, Entscheidungen über die Genehmigung von Aktionen (Dateischreibvorgänge, bash-Kommandos) eigenständig zu treffen, anstatt bei jedem Schritt den Benutzer zu fragen.
Um ihn in einer Enterprise- oder API-Umgebung zu aktivieren:
claude --enable-auto-mode
Der Auto-Mode stützt sich auf interne Klassifikatoren, die das Risiko jeder Aktion bewerten, bevor sie ausgeführt wird, und schafft so einen Ausgleich zwischen dem permissiven Modus (--dangerously-skip-permissions) und manuellen Genehmigungen.
30. März — Cowork Dispatch kann jetzt Coding-Aufgaben mit einem spezifischen Modell starten, das direkt in natürlicher Sprache in der Anweisung genannt wird.
Perplexity startet das Secure Intelligence Institute
31. März — Perplexity startet das Secure Intelligence Institute (SII), ein Forschungsinstitut, das sich der Sicherheit, dem Datenschutz und der Zuverlässigkeit fortschrittlicher KI-Systeme widmet. Das Institut wird von Dr. Ninghui Li geleitet — Samuel D. Conte Professor an der Purdue University, ACM- und IEEE-Fellow, ehemaliger Vorsitzender von ACM SIGSAC — und arbeitet mit akademischen Partnern zusammen, darunter Dan Bonehs Applied Cryptography Group und Neil Gongs Gong Lab.
Das SII veröffentlicht drei erste Arbeiten:
| Publication | Type | Description |
|---|---|---|
| BrowseSafe | Benchmark open-source | 14 700+ reale Angriffszenarien, 14 Risikokategorien für KI-Navigation |
| Sécurisation des agents NIST/CAISI | Politique | Antwort auf die RFI (Request for Information) zur Absicherung autonomer Agenten |
| Building Security Into Comet | Architecture | Tiefenverteidigung des KI-Browsers Comet |
Das SII setzt seine Forschung in konkrete Verbesserungen für Perplexitys Systeme um und teilt seine Arbeiten mit dem KI-Ökosystem.
🔗 Secure Intelligence Institute
Cohere und Ensemble: LLM spezialisiert auf Revenue Cycle Management im Gesundheitswesen
31. März — Cohere und Ensemble kündigen den Aufbau des ersten nativen großen Sprachmodells (large language model / LLM) für das Revenue Cycle Management (RCM) in der US-Gesundheitsbranche an.
Ensemble bietet eine End-to-End-Lösung für Krankenhäuser und medizinische Gruppen, von Terminvereinbarung bis zur finalen Abrechnung. Im Gegensatz zu Konkurrenzangeboten, die allgemeine LLMs in spezialisierte Prompts einbetten, ist dieses Modell vollständig auf Cohere’s Command-Familie zugeschnitten.
| Domaine | Capacité |
|---|---|
| Financier | Vorhersage von Ablehnungen vor Einreichung, kontinuierliche Qualitätskontrolle der Abrechnung |
| Clinique | Dokumentationsführung am Point-of-Care, Zusammenstellung von Berufungsakten |
| Agentique | Orchestrierung mehrstufiger Revenue-Cycle-Prozesse |
Das Modell wurde auf Cohere-Pretraining-Daten, Ensembles operativen Logs, öffentlichen RCM-Wissensquellen und Expertenannotationen trainiert. Ein fachdomänenspezifisches Evaluierungs-Framework (benchmark), das gemeinsam entwickelt wurde, wird die Leistung gegenüber allgemeinen LLMs bei realen RCM-Aufgaben messen.
GitHub Copilot: agent-first Entwicklung und Slack-Integration
31. März — Tyler McGoffin, Senior Researcher im Copilot Applied Science Team bei GitHub, teilt Erfahrungen beim Aufbau eines internen Tools mit Copilot als primärem Coding-Agent. Das Tool automatisiert die Analyse von Agententrajektorien auf Benchmarks wie TerminalBench2 und SWEBench-Pro.
Beschriebene Praktiken: Nutzung des Modus /plan vor dem Codieren, Erstellung von “Contract Tests”, die nur von einem Menschen geändert werden dürfen, ausführliche Prompts statt kurzer Anweisungen, und wöchentliche automatische Wartung via /plan Review the code for any missing tests.... Fazit: Die Eigenschaften eines guten Ingenieurs (Planung, Kontext, Kommunikation) sind identisch, um effektiv mit einem KI-Agenten zusammenzuarbeiten.
30. März — Die GitHub-App für Slack integriert jetzt Copilot, um GitHub-Issues direkt aus Slack in natürlicher Sprache zu erstellen. Einfach @GitHub in einem Kanal erwähnen und die Aufgabe beschreiben.
| Fonctionnalité | Détail |
|---|---|
| Création en langage naturel | Beschreibung → strukturierte Issues (Titel, Body, Assignees, Labels, Milestones) |
| Sous-issues | Zerlegung von Arbeit in Parent/Child-Issues aus einer einzigen Nachricht |
| Mode conversation | Iteration an Issues vor deren Erstellung |
31. März — GitHub stellt das Copilot SDK vor, das die Integration agentischer Workflows (agentic workflows) in Drittanbieter-Anwendungen nach drei Architekturmodellen ermöglicht.
🔗 Blog GitHub - Agent-driven development 🔗 Changelog GitHub - Issues depuis Slack
Runway: Investitionsfonds und Startup-Programm
31. März — Runway startet zwei simultane Initiativen.
Der Runway Fund ist ein Investitionsfonds für Early-Stage-Startups im Bereich KI, Medien und Welt-Simulation. Erstes Engagement bis zu 10 Millionen Dollar, mit Investments bis zu 500.000 Dollar in Pre-Seed/Seed. Fokus auf drei Achsen: KI-Forschung (Weltmodelle und generative KI), neue Anwendungen (Applikationsschicht auf LLMs) und neue Medien & Inhalte. Es wurden bereits Investments in Cartesia, LanceDB und Tamarind Bio getätigt.
Runway Builders ist ein Beschleunigerprogramm für Startups von Seed bis Serie C, die Produkte mit generativer Video- und Echtzeit-Konversations-KI bauen. Teilnehmer erhalten API-Gutschriften, die höchsten Rate-Limits und Zugang zu einer privaten Community.
🔗 Runway Fund 🔗 Runway Builders
NVIDIA und Emerald AI: flexible AI-Fabriken im Stromnetz
31. März — NVIDIA und Emerald AI präsentieren auf der CERAWeek einen neuen Ansatz für AI-Fabriken: diese als flexible Netzassets statt als statische Lasten zu behandeln. Die Architektur basiert auf NVIDIA Vera Rubin DSX und Emerald AIs Conductor-Plattform.
Angekündigte Energiepartner: AES, Constellation, Invenergy, NextEra Energy, Nscale Energy und Vistra. Begleitende Ankündigungen:
- Maximo: 100-MW-robotische Solaranlage mit NVIDIA Isaac Sim in Bellefield in Betrieb
- TerraPower + SoftServe: NVIDIA Omniverse Digital Twin zur Verkürzung der Entwurfszeiten von Natrium-Kernkraftwerken
- Adaptive Construction Solutions: nationales Ausbildungsprogramm für den Bau von AI-Fabriken
- GE Vernova, Schneider Electric, Vertiv: validierte Reference Designs für Vera Rubin
Jensen Huang beschreibt Energie als die fundamentale Schicht eines “AI-Kuchens mit fünf Schichten” (five-layer AI cake).
Kurz
Gemini Live auf Gemini 3.1 Flash Live — 30. März — Google bestätigte die Ausrollung des Modells Gemini 3.1 Flash Live in der App Gemini Live, verfügbar für alle Nutzer. Dieser Übergang (am 26. März angekündigt) bringt natürlichere Audio‑Gespräche und eine bessere Genauigkeit in lauten Umgebungen. 🔗 Tweet @GeminiApp
Manus: Steuerung des Desktop vom Telefon aus — 30. März — Manus fügt die Möglichkeit hinzu, die Desktop‑Anwendung vom Smartphone aus zu steuern: Starten von Aufgaben, Zugriff auf Dateien und Auslösen von Workflows, ohne den Computer zu berühren. 🔗 Tweet @ManusAI
Midjourney V8 Teaser — 29. März — David Holz (Gründer von Midjourney) kündigt eine „radikal andere“ Version von V8 an, „kommt sehr bald“. Kein Datum angekündigt. 🔗 Tweet @DavidSHolz
Claude Code v2.1.87 — Behebung eines Fehlers in Cowork Dispatch, bei dem Nachrichten nicht zugestellt wurden. 🔗 CHANGELOG GitHub
Was das bedeutet
Die Bewertung von OpenAI in Höhe von 852 Milliarden markiert einen Wendepunkt: bei solchen Zahlen vertieft sich der Abstand zwischen den führenden Akteuren und dem Rest der Branche strukturell. Mit 900 Millionen wöchentlichen Nutzern und dem Ziel von einer Milliarde positioniert sich ChatGPT als Masseninfrastruktur und nicht nur als technologisches Produkt.
Die Einführung von Qwen3.5-Omni verdeutlicht den zunehmenden Wettbewerb um omnimodale Modelle. Das Audio‑Visual Vibe Coding stellt eine konkrete Weiterentwicklung des Codierens nach Intention (vibe coding) dar — der Wechsel von Text hin zu Sprache und Video als primäre Schnittstelle zur generativen KI.
Auf Seiten der Entwicklerwerkzeuge zeigt der Thread von Boris Cherny, dass Claude Code fortgeschrittene Funktionen angesammelt hat (massive Parallelisierung mit /batch, Automatisierung über Hooks, verteilte Sessions), die mangels sichtbarer Dokumentation weitgehend unbekannt blieben. Die Ausweitung des Auto‑Mode auf Enterprise‑Pläne folgt einer klassischen Route: Validierung in der Vorschau und anschließend schrittweise Bereitstellung.
Schließlich weisen die Gründung des Secure Intelligence Institute durch Perplexity und die Initiativen von Cohere im Gesundheitsbereich auf einen Trend hin: Akteure der zweiten Reihe versuchen, sich in spezialisierten Verticals (KI‑Sicherheit, regulierte Gesundheitsbereiche) zu differenzieren, statt direkt im Wettbewerb um allgemeine Modelle anzutreten.
Quellen
- OpenAI - Beschleunigung der nächsten Phase der KI
- Tweet OpenAI - Finanzierungsrunde
- Tweet Alibaba Qwen - Qwen3.5-Omni
- Thread Boris Cherny - 15 Funktionen von Claude Code
- Tweet @claudeai - Auto mode Enterprise
- Tweet @noahzweben - Dispatch‑Modell
- CHANGELOG Claude Code auf GitHub
- Perplexity Secure Intelligence Institute
- Tweet Perplexity - SII
- Blog Cohere - LLM für RCM im Gesundheitswesen
- GitHub‑Blog - Agentengesteuerte Entwicklung
- GitHub Changelog - Issues aus Slack erstellen
- Runway Fund
- Runway Builders
- NVIDIA‑Blog - KI‑Fabriken
- Tweet @GeminiApp - Gemini Live 3.1 Flash
- Tweet @ManusAI - Telefonsteuerung
- Tweet @DavidSHolz - Midjourney V8
- Tweet @OpenRouter - Qwen 3.6 Plus Vorschau
Dieses Dokument wurde von der fr-Version in die Sprache en mit dem Modell gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator