Ein außergewöhnlicher Tag für die KI: Anthropic kündigt eine Kapitalbeschaffung von 30 Milliarden Dollar an, was die Bewertung auf 380 Milliarden erhöht, OpenAI stellt ein Echtzeit-Coding-Modell mit 1000+ Token/Sekunde auf Cerebras bereit, und Google treibt Gemini 3 Deep Think zu neuen Rekorden in den Wissenschaften. Auf der Ökosystem-Seite restrukturiert xAI seine Teams um 4 Produkte, Mistral investiert 1,2 Milliarden Euro in Schweden, und GitHub setzt GPT-5.3-Codex vorübergehend aus Zuverlässigkeitsgründen aus.
Anthropic sammelt 30 Mrd. $ in Serie G
12. Februar — Anthropic gibt eine Serie-G-Finanzierung von 30 Milliarden Dollar bekannt, was die Post-Money-Bewertung des Unternehmens auf 380 Milliarden Dollar bringt. Die Runde wird gemeinsam von GIC und Coatue geleitet, unter Beteiligung von D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ und MGX. Die Liste der zusätzlichen Investoren umfasst unter anderem Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft und NVIDIA.
| Metrik | Wert |
|---|---|
| Eingesammelter Betrag | 30 Milliarden $ |
| Post-Money-Bewertung | 380 Milliarden $ |
| Annualisierter Umsatz (Run-Rate) | 14 Milliarden $ |
| Jährliches Wachstum | 10x pro Jahr (letzte 3 Jahre) |
| Kunden >100k$/Jahr | Wachstum von 7x in einem Jahr |
| Enterprise-Kunden >1M$/Jahr | Über 500 (vs. 12 vor 2 Jahren) |
| Fortune-10-Kunden | 8 von 10 |
| Run-Rate Claude Code | 2,5 Milliarden $ (verdoppelt seit Januar 2026) |
| Wöchentliche Nutzer Claude Code | 2x seit dem 1. Januar 2026 |
| GitHub-Commits via Claude Code | 4% (verdoppelt in 1 Monat) |
| Business-Abonnements Claude Code | 4x seit Anfang 2026 |
| Unternehmensanteil Claude Code | >50% des Umsatzes von Claude Code |
Die Mittel werden für Grundlagenforschung, Produktentwicklung und den Ausbau der Infrastruktur verwendet. Claude bleibt das einzige Frontier-KI-Modell, das auf den drei großen Cloud-Plattformen verfügbar ist: AWS (Bedrock), Google Cloud (Vertex AI) und Microsoft Azure (Foundry). Anthropic trainiert und betreibt Claude auf einer diversifizierten Palette von KI-Hardware (AWS Trainium, Google TPUs, NVIDIA GPUs).
This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.
🇩🇪 Diese Finanzierung spiegelt die unglaubliche Nachfrage wider, die wir von diesen Kunden sehen, und wir werden diese Investition nutzen, um weiterhin die unternehmenstauglichen Produkte und Modelle zu entwickeln, auf die sie sich verlassen. — Krishna Rao, CFO von Anthropic (@AnthropicAI auf X)
GPT-5.3-Codex-Spark: Echtzeit-Modell auf Cerebras
12. Februar — OpenAI startet GPT-5.3-Codex-Spark in der Research Preview, ein Echtzeit-Coding-Modell, das für ultraschnelle Inferenz auf der Cerebras Wafer-Scale Engine 3 optimiert ist. Dies ist das erste OpenAI-Modell, das auf Nicht-NVIDIA-Hardware bereitgestellt wird.
Codex-Spark ist eine kompakte Version von GPT-5.3-Codex, entwickelt für interaktive Arbeit, bei der Latenz genauso wichtig ist wie Intelligenz: gezielte Bearbeitungen, Logik-Refactoring, Anpassung von Schnittstellen mit sofortigem Feedback.
| Spezifikation | Detail |
|---|---|
| Token/Sekunde | > 1.000 (vs. 50-100 für Standardmodelle) |
| Kontextfenster | 128k Token |
| Format | Nur Text (multimodal später geplant) |
| Reduktion Overhead Client/Server | 80% (Persistenter WebSocket) |
| Reduktion Overhead pro Token | 30% |
| Reduktion Time-to-First-Token | 50% |
Das Modell läuft auf der Cerebras Wafer-Scale Engine 3, einem monolithischen Prozessor, der die Berechnung für Inferenz mit hohem Durchsatz eng gekoppelt hält. Dieser Start markiert den ersten Schritt der im Januar 2026 angekündigten Partnerschaft zwischen OpenAI und Cerebras.
Codex-Spark ist in der Research Preview für ChatGPT Pro-Abonnenten, in den neuesten Versionen der Codex-App, der CLI und der VS Code-Erweiterung verfügbar. Der API-Zugriff ist auf ausgewählte Partner beschränkt, wobei eine breitere Einführung geplant ist.
Auf SWE-Bench Pro und Terminal-Bench 2.0 zeigt das Modell eine solide Leistung, indem es Aufgaben in einem Bruchteil der Zeit im Vergleich zu GPT-5.3-Codex abschließt. Während der Research-Preview-Phase gelten separate Ratenbegrenzungen.
Langfristig wird Codex zwei komplementäre Modi bieten: Langzeithorizont-Schlussfolgern (autonome Aufgaben von mehreren Stunden/Tagen) und Echtzeit-Kollaboration (schnelle Iteration). Beide Modi können kombiniert werden, mit Delegation von langen Aufgaben an Sub-Agenten im Hintergrund.
Gemini 3 Deep Think: Rekordwerte in den Wissenschaften
12. Februar — Google kündigt ein großes Update für Gemini 3 Deep Think an, seinen spezialisierten Reasoning-Modus. Das Modell ist nun darauf ausgelegt, konkrete Herausforderungen in Wissenschaft, Forschung und Ingenieurwesen zu lösen, jenseits abstrakter Theorie.
Deep Think wurde in enger Partnerschaft mit Wissenschaftlern und Forschern aktualisiert. Ziel ist es, komplexe Forschungsprobleme anzugehen, bei denen Daten oft unordentlich oder unvollständig sind und es keine einzelne Lösung gibt. Das Modell kombiniert tiefes wissenschaftliches Wissen und Nützlichkeit im Ingenieurwesen.
Rekord-Benchmarks
| Benchmark | Ergebnis | Anmerkung |
|---|---|---|
| Humanity’s Last Exam | 48,4% (ohne Tools) | Neuer Standard für Frontier-Modelle |
| ARC-AGI-2 | 84,6% | Verifiziert durch die ARC Prize Foundation |
| Codeforces | Elo 3455 | Wettbewerbsprogrammierung |
| IMO 2025 | Goldmedaille | Internationale Mathematik-Olympiade |
| IPhO 2025 (schriftlich) | Goldmedaille | Internationale Physik-Olympiade |
| IChO 2025 (schriftlich) | Goldmedaille | Internationale Chemie-Olympiade |
| CMT-Benchmark | 50,5% | Fortgeschrittene Theoretische Physik |
Reale Anwendungsfälle
- Mathematik (Lisa Carbone, Rutgers University): Deep Think identifizierte einen subtilen logischen Fehler in einem hochtechnischen mathematischen Artikel, der dem menschlichen Peer-Review entgangen war. Sie arbeitet an mathematischen Strukturen, die für die Hochenergiephysik notwendig sind.
- Materialwissenschaft (Wang Lab, Duke University): Optimierung von Fertigungsmethoden für das Wachstum komplexer Kristalle, Kandidaten für Halbleitermaterialien. Deep Think entwarf ein Rezept, um Dünnfilme von über 100 Mikrometern zu züchten.
- Maschinenbau (Anupam Pathak, Google Platforms & Devices): Iteration an physischen Prototypen mit der Geschwindigkeit von Software. Möglichkeit, eine Skizze in ein 3D-druckbares Objekt umzuwandeln (STL-Datei-Generierung).
Gemini 3 Deep Think ist ab heute für Google AI Ultra-Abonnenten in der Gemini-App und zum ersten Mal über die API im Early Access für Forscher, Ingenieure und Unternehmen verfügbar.
xAI Restrukturierung: 4 Teams und Macrohard
11. Februar — xAI veröffentlicht ein 45-minütiges All-Hands auf X, das eine umfassende Restrukturierung des Unternehmens nach dem Ausscheiden der Hälfte seiner Mitgründer (6 von 12) enthüllt. Die letzten Abgänge sind die von Tony Wu und Jimmy Ba.
Elon Musk kündigt die Neuorganisation von xAI in 4 Hauptteams an:
| Team | Fokus | Leiter |
|---|---|---|
| Grok | Chatbot + Stimme | - |
| Coding | Anwendungscodesystem | - |
| Imagine | Videogenerierung | - |
| Macrohard | Computersimulation → Unternehmen | Toby Pohlen |
Macrohard ist das ehrgeizigste Projekt: Laut Toby Pohlen ist das System “in der Lage, alles zu tun, was ein Computer auf einem Computer tun kann”. Die Ambition reicht bis zum Design von Raketentriebwerken durch KI.
Wichtige angekündigte Kennzahlen
- X hat 1 Milliarde USD an jährlichen wiederkehrenden Einnahmen (Abonnements) überschritten
- Imagine generiert 50 Millionen Videos pro Tag
- Über 6 Milliarden Bilder in den letzten 30 Tagen
Musks interplanetare Vision reicht von orbitalen Rechenzentren bis zu Mondbasen. Diese Ankündigungen erfolgen nach der Übernahme von xAI durch SpaceX (2. Februar) und dem Ausscheiden von 6 der 12 Mitgründer im letzten Jahr (Kyle Kosic zu OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).
Mistral investiert 1,2 Mrd. EUR in Schweden
11. Februar — Mistral AI kündigt eine Investition von 1,2 Milliarden Euro (1,4 Milliarden USD) an, um eine KI-Infrastruktur in Schweden zu bauen, in Partnerschaft mit EcoDataCenter. Dies ist Mistrals erste KI-Infrastrukturinvestition außerhalb Frankreichs.
Das Rechenzentrum wird sich in Borlänge (Schweden) auf dem Gelände von EcoDataCenter befinden, mit einer geplanten Eröffnung im Jahr 2027. Die Anlage wird 23 Megawatt Rechenleistung bereitstellen und die neueste Generation der NVIDIA Vera Rubin GPUs beherbergen.
| Detail | Wert |
|---|---|
| Betrag | 1,2 Mrd. EUR / 1,4 Mrd. USD |
| Partner | EcoDataCenter |
| Standort | Borlänge, Schweden |
| Eröffnung | 2027 |
| Kapazität | 23 MW |
| GPU | NVIDIA Vera Rubin |
| Prognostizierter Umsatz | 2 Mrd. EUR über 5 Jahre |
Arthur Mensch, CEO von Mistral AI, erklärte, dass diese Investition “ein konkreter Schritt zum Aufbau unabhängiger Kapazitäten in Europa ist, die der KI gewidmet sind”. Die Wahl Schwedens erklärt sich durch den Zugang zu sauberer und relativ günstiger Energie. Ziel ist es, einen vollständig europäischen KI-Stack zu liefern — entworfen, gebaut und betrieben über die gesamte KI-Wertschöpfungskette hinweg, mit Daten, die lokal in Europa verarbeitet und gespeichert werden.
Qwen-Image-2.0: Einheitliche Bildgenerierung und -bearbeitung
10. Februar — Alibaba startet Qwen-Image-2.0, ein Foundation-Modell der nächsten Generation für Bildgenerierung, das Text-to-Image-Generierung und Bildbearbeitung in einer einzigen Architektur vereint.
Wichtige Änderungen im Vergleich zu v1:
- Einheitliche Architektur für Generierung + Bearbeitung (zuvor getrennte Modelle)
- Kompakteres Modell: 7B Parameter (gegenüber 20B für v1)
- Verbessertes Text-Rendering mit Prompt-Unterstützung bis zu 1K Token
- Native 2K-Auflösung (2048x2048)
| Benchmark | Qwen-Image-2.0 | FLUX.1 |
|---|---|---|
| DPG-Bench | 88,32 | 83,84 |
| AI Arena (blind eval) | #1 | - |
Das Modell zeichnet sich durch das Rendern von Text in Chinesisch und Englisch über verschiedene Formate hinweg aus: Infografiken, Poster, Kalligraphie, Beschilderung. Qwen-Image-2.0 ist als API-Test auf der Alibaba Cloud BaiLian-Plattform und kostenlos über Qwen Chat (chat.qwen.ai) verfügbar.
Deep Research wechselt zu GPT-5.2
10. Februar — OpenAI aktualisiert ChatGPT Deep Research mit dem GPT-5.2-Modell und ersetzt die vorherigen Versionen o3 und o4-mini. Das Update bringt App-Verbindungen, Suche auf spezifischen Seiten und Echtzeit-Steuerungen.
| Funktion | Detail |
|---|---|
| Modell | GPT-5.2 (ersetzt o3 / o4-mini) |
| App-Verbindungen | Gmail, Google Calendar, Google Contacts + jeder MCP |
| Gezielte Suche | Beschränkung auf spezifische Seiten und vertrauenswürdige Quellen |
| Echtzeit-Steuerungen | Fortschrittsverfolgung, Unterbrechung und Umleitung während der Ausführung |
| Forschungsplan | Erstellbar und bearbeitbar vor dem Start |
| Oberfläche | Neugestaltete Seitenleiste + Vollbild-Berichtsansicht |
| Export | PDF und DOCX |
Benutzer können nun Deep Research mit jedem MCP-Server oder jeder Anwendung verbinden und Websuchen auf vertrauenswürdige Seiten beschränken, um genauere und glaubwürdigere Berichte zu erhalten. Apps funktionieren im Nur-Lese-Modus als zuverlässige Quellen.
Die Einführung begann am 10. Februar für Plus- und Pro-Benutzer, gefolgt von Free- und Go-Benutzern in den folgenden Tagen.
ChatGPT tritt Pentagons GenAI.mil bei
10. Februar — OpenAI kündigt die Bereitstellung einer benutzerdefinierten Version von ChatGPT auf GenAI.mil an, der Enterprise-KI-Plattform des US-Verteidigungsministeriums. ChatGPT schließt sich Google Gemini (gestartet im Dezember 2025) und xAI Grok (hinzugefügt Ende Dezember 2025) auf der Plattform an.
| Detail | Wert |
|---|---|
| Plattform | GenAI.mil (DoD) |
| Potenzielle Nutzer | ~3 Millionen (Militär, Zivilisten, Auftragnehmer) |
| Aktive Plattformnutzer | 1,1 Millionen einzigartige seit Start |
| Klassifizierung | Nur nicht klassifizierte Daten |
| Infrastruktur | Autorisierte Regierungs-Cloud |
| Datenisolierung | Daten isoliert, nicht zum Trainieren von OpenAI-Modellen verwendet |
Die Anwendungsfälle umfassen die Synthese und Analyse von Richtliniendokumenten, das Entwerfen von Beschaffungsmaterialien, die Generierung interner Berichte und Compliance-Checklisten sowie die Unterstützung bei Forschung und Planung.
ElevenLabs for Government
11. Februar — ElevenLabs startet ElevenLabs for Government, eine Initiative für den öffentlichen Sektor, die auf dem ElevenLabs Summit in London angekündigt wurde. Diese Plattform bietet Sprach- und Chat-KI-Agenten, die für Regierungsorganisationen entwickelt wurden, 24/7 verfügbar, in mehreren Sprachen, per Telefon, Chat, E-Mail und WhatsApp.
Die Plattform verfolgt drei Ziele:
- Zugänglichkeit und Inklusion: mehrsprachige Omnichannel-Agenten, die Bürgeranfragen sofort lösen können
- Effizienz und Produktivität: Automatisierung von Kontakten mit hohem Volumen und Reduzierung von Weiterleitungen zwischen Diensten
- Vertrauen und Engagement: Verbesserung des Zugangs zu Kommunikation, die auf öffentliche Richtlinien abgestimmt ist
| Einsatz | Details |
|---|---|
| Tschechische Republik | Nationale Hotlines für Beschäftigung und Leistungen, ~5.000 Anrufe/Tag, 85% autonome Lösung |
| Ukraine | Digitaler Zwilling eines hohen Beamten + öffentliche Dienste, in Partnerschaft mit dem Ministerium für digitale Transformation |
| Midland, Texas (USA) | Ziviler Sprach-Concierge “Jacky”, geschätzte Reduzierung von 7.000 verpassten Anrufen/Monat |
Die Plattform ist SOC 2 Typ 2, DSGVO (GDPR), CPRA und HIPAA zertifiziert, um die Sicherheitsanforderungen des öffentlichen Sektors zu erfüllen.
Anthropic deckt Strompreiserhöhungen
11. Februar — Anthropic kündigt an, dass es Strompreiserhöhungen für Verbraucher übernehmen wird, die durch seine Rechenzentren verursacht werden. Das Unternehmen geht vier konkrete Verpflichtungen ein:
| Verpflichtung | Detail |
|---|---|
| Netzinfrastrukturkosten | Übernahme von 100% der Netzanschlusskosten |
| Neue Energieproduktion | Inbetriebnahme neuer Erzeugungskapazitäten, angepasst an den Bedarf |
| Reduzierung des Netzdrucks | Investition in Systeme zur Reduzierung des Spitzenverbrauchs |
| Gemeinschaftsinvestition | Schaffung von Hunderten dauerhafter Arbeitsplätze und Tausenden von Bauarbeitsplätzen |
Anthropic spendet 20 Millionen $ für KI-Regulierung
12. Februar — Anthropic kündigt eine Spende von 20 Millionen Dollar an Public First Action an, eine neue überparteiliche 501(c)(4)-Organisation in den USA. Ziel ist es, Bürger und politische Entscheidungsträger für KI-Themen im öffentlichen Interesse zu mobilisieren.
Der Tweet von Anthropic hebt hervor, dass KI schneller angenommen wird als jede Technologie in der Geschichte und dass sich das Fenster, um die öffentliche Politik richtig zu gestalten, schließt.
Claude Code Desktop: Lokale Plugins und Marktplatz
11. Februar — Boris Cherny (Claude Code Lead bei Anthropic) veröffentlicht einen Thread, in dem er detailliert beschreibt, was Ingenieure an Claude Code lieben: seine Anpassbarkeit. Er listet Hooks, Plugins, LSPs, MCPs, Skills, Aufwand, benutzerdefinierte Agenten, Statuszeilen, Ausgabestile als Anpassungsmechanismen auf.
Parallel dazu kündigt Lydia Hallie an, dass Claude Code auf dem Desktop nun lokale Plugins unterstützt. Benutzer können benutzerdefinierte Slash-Befehle, Skills und MCP-Server vom Marktplatz installieren, mit automatischer Synchronisierung zwischen Desktop und CLI.
GitHub Mobile: Modellauswahl für Copilot
11. Februar — GitHub fügt dem Copilot Coding Agent in der GitHub Mobile App auf iOS und Android eine Modellauswahl hinzu.
Copilot Pro- und Pro+-Benutzer können nun direkt von ihrem Telefon aus das KI-Modell auswählen, das ihre Coding-Agent-Sitzungen antreibt, ohne auf den Desktop wechseln zu müssen.
| Verfügbares Modell | Herausgeber |
|---|---|
| Auto (Standard — optimiert Geschwindigkeit und Leistung) | GitHub |
| Claude Opus 4.5 | Anthropic |
| Claude Opus 4.6 | Anthropic |
| Claude Sonnet 4.5 | Anthropic |
| GPT-5.1-Codex-Max | OpenAI |
| GPT-5.2-Codex | OpenAI |
Der Auto-Modus wählt automatisch ein Modell aus, um Geschwindigkeit und Leistung je nach Verfügbarkeit zu optimieren. Die Funktion ist ab sofort für Copilot Pro- und Pro+-Abonnenten verfügbar. Business- und Enterprise-Support folgt in Kürze. Hinweis: GPT-5.3-Codex, das am 9. Februar GA wurde, ist noch nicht in der mobilen Liste.
GitHub setzt GPT-5.3-Codex aus (Zuverlässigkeit)
10. Februar — GitHub kündigt die vorübergehende Aussetzung der Bereitstellung von GPT-5.3-Codex in GitHub Copilot aus Gründen der Plattformzuverlässigkeit an, nur einen Tag nach der Ankündigung seiner allgemeinen Verfügbarkeit.
Der Tweet, der als Antwort auf die Ankündigung vom 9. Februar zur GPT-5.3-Codex GA zitiert wird, generierte 357.500 Aufrufe und 1.000 Likes, was von den Auswirkungen auf die Entwickler-Community zeugt. Mehrere Benutzer meldeten in den Antworten Probleme mit der Serviceverfügbarkeit.
Die Tatsache, dass das Modell noch nicht in der Liste der mobilen Modellauswahl (angekündigt am 11. Februar) enthalten ist, könnte mit dieser Aussetzung zusammenhängen.
Manus startet Project Skills
12. Februar — Manus (jetzt unter Meta) startet Project Skills, eine Funktion, die das Erstellen dedizierter Skill-Bibliotheken pro Projekt ermöglicht.
Jedes Projekt kann einen Satz von Skills zusammenstellen, die aus “Team Skills”-Pools oder persönlichen Sammlungen ausgewählt werden. Die Idee: Einen Standard-Projektordner in einen intelligenten und autonomen Arbeitsbereich zu verwandeln.
| Funktion | Beschreibung |
|---|---|
| Bibliotheken pro Projekt | Zusammenstellung benutzerdefinierter Toolkits aus Team- oder persönlichen Pools |
| Eingeschlossene Workflows | Nur explizit zum Projekt hinzugefügte Skills können ausgelöst werden |
| Gesperrte Workflows | Administratoren können das Skill-Set sperren, um Prozesse zu standardisieren |
Hervorgehobene Vorteile: schnelleres Onboarding, Skalierung individueller Expertise auf die Organisation und Aufbau von “institutionellem Wissen”, das sich mit der Zeit verbessert. Sofort verfügbar für alle Manus-Benutzer.
Gemini CLI v0.28.0 + Extension Settings
10.-11. Februar — Google veröffentlicht Version 0.28.0 der Gemini CLI und kündigt Extension Settings an, eine neue Funktion zur Vereinfachung der Erweiterungskonfiguration.
Gemini CLI v0.28.0 (10. Februar)
| Neuheit | Detail |
|---|---|
Befehl /prompt-suggest | Neuer Slash-Befehl für Prompt-Vorschläge |
| Automatisches Design | Anpassung basierend auf dem Terminalhintergrund |
| IDE-Kompatibilität | Support für Positron IDE hinzugefügt |
| Verbessertes OAuth | Interaktive und nicht-interaktive OAuth-Zustimmung |
| Checklist-Komponente | Komponente für strukturiertes Aufgabenmanagement im Plan-Modus |
| Sub-Agenten | Dynamische Richtlinienregistrierung für Sub-Agenten |
| Ausführung im Hintergrund | Shell-Befehle im Hintergrund |
Extension Settings (11. Februar)
Gemini-CLI-Erweiterungen können nun Konfigurationsparameter definieren, die Benutzer bei der Installation angeben. Automatische Einrichtung mit interaktiven Prompts, integrierte Sicherheit (sensible Daten wie API-Schlüssel werden im System-Schlüsselbund gespeichert) und zentralisierte Verwaltung über gemini extensions config. Data-Cloud-Erweiterungen (BigQuery, Cloud SQL, Firestore, Looker, Spanner) implementieren diese Funktion bereits.
KI-Shopping in Google Suche und Gemini
11. Februar — Google kündigt die Integration von Einkaufsfunktionen direkt in seine KI-Produkte an — Search AI Mode und den Gemini-Chatbot.
Benutzer können jetzt Etsy- und Wayfair-Artikel direkt im Gemini-Chatbot kaufen. Direct Offers, eine neue Funktion im AI Mode, ermöglicht es Marken, potenziellen Käufern Rabatte anzubieten. Neue Anzeigenformate werden im AI Mode der Suche für Einzelhändler getestet.
Google arbeitet mit Walmart, Target und Shopify an einem Checkout-Protokoll, das es Verbrauchern ermöglicht, ihre Einkäufe direkt in den KI-Produkten von Google abzuschließen.
GTIG-Bericht: Distillation-Angriffe auf Gemini
12. Februar — Die Google Threat Intelligence Group (GTIG) veröffentlicht einen Bericht, der enthüllt, dass Gemini Ziel von Distillation-Angriffen war — massive Klonversuche durch wiederholte Prompts.
Eine Kampagne reichte über 100.000 Prompts an Gemini ein, bevor sie entdeckt wurde. Die Angriffe zielten speziell auf die Reasoning-Algorithmen von Gemini ab. Angreifer sind hauptsächlich private Unternehmen und Forscher, die einen Wettbewerbsvorteil suchen.
Googles Systeme erkannten die Aktivität in Echtzeit und passten die Schutzmaßnahmen an. Google betrachtet Distillation als Diebstahl geistigen Eigentums.
Codex CLI v0.99.0: gleichzeitige Shell-Ausführung
11. Februar — OpenAI veröffentlicht Codex CLI v0.99.0 mit gleichzeitiger Shell-Ausführung, einer konfigurierbaren Statuszeile und dedizierten App-Server-APIs.
| Funktion | Detail |
|---|---|
| Gleichzeitige Shell-Ausführung | Direkte Shell-Befehle blockieren keinen laufenden Turn mehr |
| /statusline | Interaktive Metadatenkonfiguration in der TUI-Fußzeile |
| Adaptiver Resume-Picker | Neuer Selektor zum Fortsetzen von Sitzungen |
| App-Server-APIs | Dedizierte APIs für die Anwendungsintegration |
| Admin-Steuerelemente | Admin-Steuerelemente für Websuche und Netzwerke |
| Bilder | GIF/WebP-Unterstützung |
| Snapshotting | Umgebungs-Snapshotting |
| Steer-Modus | Stabil und standardmäßig aktiv (Enter sendet, Tab reiht ein) |
Das npm-Packaging wurde überarbeitet: plattformspezifische Binärdateien werden über @openai/codex dist-tags verteilt, was die Paketgröße reduziert.
Qwen Chat AI Slides
12. Februar — Qwen kündigt die baldige Ankunft von AI Slides in Qwen Chat an. Die Funktion ermöglicht die Umwandlung verschiedener Dokumenttypen in Präsentationen: Project Docs → Meeting Slides, Paper → Oral Deck, Product Info → Sales Deck, Topic → Teaching Deck.
Die Funktion ist mit Qwen Agent + Qwen-Image 2.0 (das einige Tage zuvor gestartete Bildmodell) erstellt. Chen Cheng demonstrierte die Fähigkeit, akademische Arbeiten in wenigen Minuten in mündliche Präsentationen umzuwandeln, mit einem integrierten Suchagenten.
Was das bedeutet
Die Kapitalbeschaffung von 30 Milliarden Dollar durch Anthropic bei einer Bewertung von 380 Milliarden bestätigt die Dominanz von Frontier-Modellen in der KI-Wirtschaft. Die jährliche Run-Rate von 14 Milliarden Dollar und der Anteil von 2,5 Milliarden, der durch Claude Code generiert wird, zeigen, dass KI-unterstütztes Coding zu einer kritischen Infrastruktur für Entwickler und Unternehmen geworden ist.
Die Ankunft von GPT-5.3-Codex-Spark auf Cerebras markiert einen Wendepunkt in der Diversifizierung von KI-Hardware jenseits von NVIDIA. Inferenz mit 1000+ Token/Sekunde verändert die Art der Interaktion mit Codemodellen und macht flüssige Echtzeit-Kollaboration möglich.
Gemini 3 Deep Think mit seinen Goldmedaillen bei Wissenschaftsolympiaden und seinem Wert von 84,6% bei ARC-AGI-2 zeigt, dass Frontier-Modelle beginnen, ein Niveau an wissenschaftlichem Schlussfolgern zu erreichen, das mit den besten Menschen in spezialisierten Bereichen vergleichbar ist.
Die Restrukturierung von xAI in 4 Teams mit Macrohard — mit dem Ziel, “alles zu tun, was ein Computer kann” — und die massive Investition von Mistral in Europa zeigen, dass sich das Rennen um die KI-Infrastruktur weltweit beschleunigt. Die Aussetzung von GPT-5.3-Codex durch GitHub erinnert jedoch daran, dass Zuverlässigkeit eine große Herausforderung für den großflächigen Einsatz bleibt.
Quellen
- Anthropic — Serie G $30B
- Anthropic — Elektrizität
- Anthropic — Public First Action
- Anthropic — Claude Code Plugins
- OpenAI — GPT-5.3-Codex-Spark
- OpenAI — Deep Research
- OpenAI — GenAI.mil
- OpenAI — Codex CLI v0.99.0
- Google — Gemini 3 Deep Think
- Google — KI-Shopping
- Google — Gemini CLI Erweiterungen
- Google — GTIG Distillation
- xAI — Restrukturierung
- Mistral — Schweden Investition
- Qwen — Image 2.0
- Qwen — AI Slides
- ElevenLabs — For Government
- GitHub — Mobile Model Picker
- GitHub — Pause GPT-5.3-Codex
- Manus — Project Skills