GitHub startet die Agentic Workflows in Technical Preview, was die Automatisierung von Repository-Aufgaben über Markdown-Dateien und KI-Agenten ermöglicht. Auf der Seite von OpenAI leitet GPT-5.2 ein neues Ergebnis in der theoretischen Physik her, Lockdown Mode schützt ChatGPT gegen Prompt Injections, und die Skalierungsinfrastruktur von Codex und Sora wird detailliert. Anthropic und Google setzen auf Bildung mit Partnerschaften und Funktionen speziell für Studenten.
GitHub Agentic Workflows in Technical Preview
13. Februar — GitHub startet die Agentic Workflows in Technical Preview, ein neuer Ansatz zur Repository-Automatisierung basierend auf KI-Coding-Agenten, die nativ in GitHub Actions integriert sind.
Das zentrale Konzept: Automatisierungsziele in natürlichem Markdown statt traditionellem YAML beschreiben. Eine Datei .github/workflows/workflow.md genügt — die gh aw CLI konvertiert sie in einen Standard-GitHub Actions Workflow, ausgeführt von einem KI-Agenten (GitHub Copilot CLI, Claude oder Codex).
| Anwendungsfall | Beschreibung |
|---|---|
| Automatisierte Triage | Issues labeln, kategorisieren und weiterleiten |
| Synchronisierte Dokumentation | Doku aktuell mit dem Code halten |
| Test-Verbesserung | Abdeckung automatisch erhöhen |
| CI/CD-Analyse | Build-Fehler untersuchen |
| Gesundheitsberichte | Periodische Einblicke in das Repo generieren |
Sicherheit steht im Mittelpunkt des Designs: standardmäßig nur Lesezugriff, Sandboxing, Netzwerkisolierung und Allowlisting von Tools. Die Workflows haben nativen Zugriff auf den GitHub MCP Server, um mit Issues, PRs, Actions und Sicherheitssystemen zu interagieren. Die Auslöser sind flexibel: Ereignisse, Zeitplan, manuell oder per Kommentar.
Die Autoren (Don Syme & Peli de Halleux) empfehlen, mit risikoarmen Ausgaben (Kommentare, Berichte) zu beginnen, bevor die Erstellung von Pull Requests aktiviert wird.
🔗 Ankündigung GitHub Agentic Workflows
GPT-5.2 leitet ein neues Ergebnis in der theoretischen Physik her
13. Februar — OpenAI veröffentlicht ein Preprint, das zeigt, dass GPT-5.2 eine Formel für eine Gluonen-Amplitude vorgeschlagen hat, von der Physiker dachten, sie könne nicht existieren. Das Ergebnis mit dem Titel “Single-minus gluon tree amplitudes are nonzero” wurde von einem internen Team und akademischen Mitarbeitern verifiziert.
Der Artikel wurde gemeinsam mit Forschern des Institute for Advanced Study (IAS), der Vanderbilt University, der Cambridge University und der Harvard University verfasst. GPT-5.2 identifizierte eine mathematische Struktur in der Amplitudentheorie — einem Bereich der Teilchenphysik — die traditionelle Ansätze nicht erforscht hatten.
Diese Entdeckung illustriert das Potenzial fortschrittlicher KI-Modelle, zur theoretischen Grundlagenforschung beizutragen, insbesondere in Bereichen, in denen einfache Formeln oft auf tiefere Strukturen hinweisen. Das Preprint ist auf arXiv verfügbar und wird zur Veröffentlichung eingereicht.
OpenAI startet Lockdown Mode und Elevated Risk Labels
13. Februar — OpenAI führt zwei neue Schutzmaßnahmen in ChatGPT ein, um Angriffen durch Prompt Injection entgegenzuwirken, einer wachsenden Bedrohung, da KI-Systeme Aufgaben bewältigen, die das Web und verbundene Anwendungen einbeziehen.
| Schutzmaßnahme | Beschreibung | Verfügbarkeit |
|---|---|---|
| Lockdown Mode | Erweiterte und optionale Sicherheitseinstellung für Benutzer mit hohem Risiko | ChatGPT |
| Elevated Risk labels | Klare Labels, die Fähigkeiten signalisieren, die zusätzliche Risiken bergen | ChatGPT, Atlas, Codex |
Diese Schutzmaßnahmen ergänzen bestehende Verteidigungslinien: Sandboxing, Schutz vor Datenexfiltration via URL, rollenbasierte Zugriffskontrollen und Audit-Logs. Ziel ist es, Benutzern und Organisationen mehr Klarheit über Risiken und stärkere Kontrollen gegen Manipulationsversuche durch Dritte zu geben.
Beyond Rate Limits: wie OpenAI den Zugang zu Codex und Sora skaliert
13. Februar — Angesichts der schnellen Akzeptanz von Codex und Sora, die die Prognosen übertrifft, detailliert OpenAI seine Architektur der Real-time Access Engine, die das traditionelle Modell der Rate Limits ersetzt.
Das System funktioniert als “Wasserfall”: statt zu fragen “ist es erlaubt?”, fragt es “wie viel ist erlaubt, und von wo?”. Die Ebenen reihen sich aneinander — kostenlose Rate Limits, Free Tier, bezahlte Credits, Enterprise-Aktionen — und bieten ein nahtloses Kontinuum für den Benutzer.
| Prinzip | Beschreibung |
|---|---|
| Echtzeit | Sofortige Erkennung von Limitüberschreitungen und Aktivierung von Credits |
| Idempotenz | Jede Abbuchung trägt einen stabilen Schlüssel, was Doppelberechnungen eliminiert |
| Audit-Trail | Jede Saldoanpassung wird mit Zuordnung dokumentiert |
| Abstimmbarkeit | Volle Transparenz darüber, warum eine Anfrage erlaubt/blockiert wird |
OpenAI hat dieses System intern gebaut, nachdem Drittanbieter-Abrechnungsplattformen evaluiert wurden, die den Anforderungen an Echtzeitgenauigkeit und vollständige Beobachtbarkeit nicht entsprachen.
Anthropic arbeitet mit CodePath für KI-Bildung zusammen
13. Februar — Anthropic geht eine Partnerschaft mit CodePath ein, dem größten Anbieter von Informatik-Ausbildungen für Hochschulstudenten in den USA. Die Zusammenarbeit integriert Claude und Claude Code in die KI-Lehrpläne von CodePath und erweitert den Zugang zu KI-Tools für über 20.000 Studenten.
Über 100 Studenten haben Claude Code bereits im Herbst 2025 in Open-Source-Projekten getestet. Die Howard University hat ihren Kurs “Intro to AI” mit Claude neu gestaltet und die Unterrichtszeit von 4 auf 2 Jahre reduziert. Über 40 % der CodePath-Studenten stammen aus Familien, die weniger als 50.000 $/Jahr verdienen — ein starkes Signal für die Demokratisierung des Zugangs zu KI-Tools.
Diese Partnerschaft ist Teil des breiteren Engagements von Anthropic für KI-Bildung, neben Kooperationen mit AFT, Island und Ruanda.
Chris Liddell tritt dem Vorstand von Anthropic bei
13. Februar — Chris Liddell, ehemaliger stellvertretender Stabschef im Weißen Haus und Vice Chairman von General Motors, tritt dem Vorstand von Anthropic bei. Diese Ernennung stärkt die Präsenz von Anthropic in Regierungs- und Industriekreisen.
GABRIEL: OpenAI startet Open-Source-Toolkit für Sozialwissenschaften
13. Februar — Das Economic Research Team von OpenAI startet GABRIEL, eine Open-Source-Python-Bibliothek, die Sozialwissenschaftlern hilft, qualitative Daten in großem Maßstab in quantitative Daten umzuwandeln.
| Fähigkeit | Beispiel |
|---|---|
| Qualitative Analyse | Eine Frage in natürlicher Sprache stellen und auf tausende Dokumente anwenden |
| Lehrplan-Analyse | Aufmerksamkeit messen, die verschiedenen Themen in Lehrplänen gewidmet wird |
| Merging & Deduplizierung | Datensätze auch ohne übereinstimmende Spalten zusammenführen |
| De-Identifizierung | Persönliche Informationen maskieren |
Das Toolkit ist so konzipiert, dass es minimales technisches Wissen erfordert, inklusive Tutorial-Notebook.
Gemini rollt 5 Funktionen für Studenten aus
13. Februar — Google veröffentlicht einen umfassenden Leitfaden, der zeigt, wie Gemini 3 Studenten mit 5 Kategorien praktischer Funktionen hilft.
| Funktion | Beschreibung |
|---|---|
| SAT/JEE Übungstests | Komplette kostenlose Tests mit Feedback nach Bereich und personalisierten Lernplänen |
| Canvas Writing | Kollaborativer Raum zum Verfeinern von Texten, Erstellen von Präsentationen, Debuggen von Code |
| Deep Learning | Upload von Bildern/PDFs von Notizen, interaktive Bilder mit Erklärungen per Klick |
| Prüfungsvorbereitung | Personalisierte Quizze, Audio Overviews (Podcasts), Lernkarten |
| Karriere-Zukunft | Überprüfung von Lebenslauf/Anschreiben, simulierte Interviews, professionelle Headshots via Nano Banana |
Teilnahmeberechtigte Universitätsstudenten profitieren von 1 Jahr kostenlosem Google AI Pro (volles Gemini 3 Pro, 2 TB Speicher, erweitertes NotebookLM). Die Partnerschaft mit The Princeton Review sichert die Strenge der SAT-Tests.
🔗 Gemini Funktionen für Studenten
Qwen AI Slides: von der Idee zur Präsentation mit einem Klick
13. Februar — Alibaba Qwen startet offiziell Qwen AI Slides, eine Funktion, die Ideen, Text oder Dokumente automatisch in professionelle Präsentationen verwandelt. Das System kombiniert die Agenten-Fähigkeiten von Qwen3 mit dem Bildgenerierungsmodell Qwen-Image 2.0.
Ein Such-Agent recherchiert, organisiert und baut die narrative Struktur auf, dann generiert Qwen-Image 2.0 jede Folie als vollständige visuelle Komposition (Text, Layout, Farbpalette, Grafiken). Die Funktion ist über chat.qwen.ai zugänglich.
Copilot Coding Agent: Netzwerkänderung am 27. Februar
13. Februar — GitHub implementiert eine Änderung der Netzwerkarchitektur für den Copilot Coding Agent, wirksam ab 27. Februar 2026. Verbindungen werden nach Abonnementplan zu spezifischen Endpunkten geroutet statt zum aktuellen einzigen Endpunkt.
| Plan | Endpunkt |
|---|---|
| Copilot Business | api.business.githubcopilot.com |
| Copilot Enterprise | api.enterprise.githubcopilot.com |
| Copilot Pro/Pro+ | api.individual.githubcopilot.com |
Teams, die selbst gehostete Runner oder Runner mit Azure Private Networking nutzen, müssen ihre Netzwerkkonfigurationen vor der Deadline aktualisieren. Aufgaben des Copilot Coding Agent werden nach dem 27. Februar ohne dieses Update fehlschlagen.
🔗 Änderungen der Netzwerkkonfiguration
Stability AI tritt der Tech Coalition bei
11. Februar — Stability AI kündigt den Beitritt zur Tech Coalition an, einer globalen Allianz von Technologieunternehmen, die zusammenarbeiten, um sexuelle Ausbeutung und Missbrauch von Kindern online zu bekämpfen. Eine CSR-Initiative, die sich in die Bemühungen der Branche für verantwortungsvolle KI einfügt.
Was das bedeutet
Der 13. Februar markiert eine bemerkenswerte Konvergenz: GitHub und OpenAI vertiefen die agentische Automatisierung (Agentic Workflows auf der einen Seite, Codex-Skalierung auf der anderen), während Sicherheit mit dem Lockdown Mode einen zentralen Platz einnimmt. Der Beitrag von GPT-5.2 zur theoretischen Physik illustriert einen aufkommenden Trend: KI-Modelle begnügen sich nicht mehr damit zusammenzufassen oder zu generieren, sie beginnen verifizierbare wissenschaftliche Ergebnisse zu produzieren. Schließlich machen Anthropic und Google Bildung klar zu einer strategischen Achse — kostenloser Zugang, Universitätspartnerschaften, spezielle Tools für Studenten.
Quellen
- GitHub Agentic Workflows Technical Preview
- GitHub Agentic Workflows Blog
- OpenAI — New result in theoretical physics
- OpenAI — Lockdown Mode
- OpenAI — Beyond rate limits
- OpenAI — GABRIEL toolkit
- Anthropic — CodePath Partnership
- Anthropic — Chris Liddell board
- Google — Gemini features for students
- Qwen AI Slides
- GitHub — Network configuration changes
- Stability AI — Tech Coalition