Suchen

GitHub Agentic Workflows in Preview, GPT-5.2 betreibt theoretische Physik, OpenAI startet Lockdown Mode

GitHub Agentic Workflows in Preview, GPT-5.2 betreibt theoretische Physik, OpenAI startet Lockdown Mode

GitHub startet die Agentic Workflows in Technical Preview, was die Automatisierung von Repository-Aufgaben über Markdown-Dateien und KI-Agenten ermöglicht. Auf der Seite von OpenAI leitet GPT-5.2 ein neues Ergebnis in der theoretischen Physik her, Lockdown Mode schützt ChatGPT gegen Prompt Injections, und die Skalierungsinfrastruktur von Codex und Sora wird detailliert. Anthropic und Google setzen auf Bildung mit Partnerschaften und Funktionen speziell für Studenten.


GitHub Agentic Workflows in Technical Preview

13. Februar — GitHub startet die Agentic Workflows in Technical Preview, ein neuer Ansatz zur Repository-Automatisierung basierend auf KI-Coding-Agenten, die nativ in GitHub Actions integriert sind.

Das zentrale Konzept: Automatisierungsziele in natürlichem Markdown statt traditionellem YAML beschreiben. Eine Datei .github/workflows/workflow.md genügt — die gh aw CLI konvertiert sie in einen Standard-GitHub Actions Workflow, ausgeführt von einem KI-Agenten (GitHub Copilot CLI, Claude oder Codex).

AnwendungsfallBeschreibung
Automatisierte TriageIssues labeln, kategorisieren und weiterleiten
Synchronisierte DokumentationDoku aktuell mit dem Code halten
Test-VerbesserungAbdeckung automatisch erhöhen
CI/CD-AnalyseBuild-Fehler untersuchen
GesundheitsberichtePeriodische Einblicke in das Repo generieren

Sicherheit steht im Mittelpunkt des Designs: standardmäßig nur Lesezugriff, Sandboxing, Netzwerkisolierung und Allowlisting von Tools. Die Workflows haben nativen Zugriff auf den GitHub MCP Server, um mit Issues, PRs, Actions und Sicherheitssystemen zu interagieren. Die Auslöser sind flexibel: Ereignisse, Zeitplan, manuell oder per Kommentar.

Die Autoren (Don Syme & Peli de Halleux) empfehlen, mit risikoarmen Ausgaben (Kommentare, Berichte) zu beginnen, bevor die Erstellung von Pull Requests aktiviert wird.

🔗 Ankündigung GitHub Agentic Workflows

🔗 Detaillierter Blogpost


GPT-5.2 leitet ein neues Ergebnis in der theoretischen Physik her

13. Februar — OpenAI veröffentlicht ein Preprint, das zeigt, dass GPT-5.2 eine Formel für eine Gluonen-Amplitude vorgeschlagen hat, von der Physiker dachten, sie könne nicht existieren. Das Ergebnis mit dem Titel “Single-minus gluon tree amplitudes are nonzero” wurde von einem internen Team und akademischen Mitarbeitern verifiziert.

Der Artikel wurde gemeinsam mit Forschern des Institute for Advanced Study (IAS), der Vanderbilt University, der Cambridge University und der Harvard University verfasst. GPT-5.2 identifizierte eine mathematische Struktur in der Amplitudentheorie — einem Bereich der Teilchenphysik — die traditionelle Ansätze nicht erforscht hatten.

Diese Entdeckung illustriert das Potenzial fortschrittlicher KI-Modelle, zur theoretischen Grundlagenforschung beizutragen, insbesondere in Bereichen, in denen einfache Formeln oft auf tiefere Strukturen hinweisen. Das Preprint ist auf arXiv verfügbar und wird zur Veröffentlichung eingereicht.

🔗 OpenAI Artikel


OpenAI startet Lockdown Mode und Elevated Risk Labels

13. Februar — OpenAI führt zwei neue Schutzmaßnahmen in ChatGPT ein, um Angriffen durch Prompt Injection entgegenzuwirken, einer wachsenden Bedrohung, da KI-Systeme Aufgaben bewältigen, die das Web und verbundene Anwendungen einbeziehen.

SchutzmaßnahmeBeschreibungVerfügbarkeit
Lockdown ModeErweiterte und optionale Sicherheitseinstellung für Benutzer mit hohem RisikoChatGPT
Elevated Risk labelsKlare Labels, die Fähigkeiten signalisieren, die zusätzliche Risiken bergenChatGPT, Atlas, Codex

Diese Schutzmaßnahmen ergänzen bestehende Verteidigungslinien: Sandboxing, Schutz vor Datenexfiltration via URL, rollenbasierte Zugriffskontrollen und Audit-Logs. Ziel ist es, Benutzern und Organisationen mehr Klarheit über Risiken und stärkere Kontrollen gegen Manipulationsversuche durch Dritte zu geben.

🔗 Ankündigung Lockdown Mode


Beyond Rate Limits: wie OpenAI den Zugang zu Codex und Sora skaliert

13. Februar — Angesichts der schnellen Akzeptanz von Codex und Sora, die die Prognosen übertrifft, detailliert OpenAI seine Architektur der Real-time Access Engine, die das traditionelle Modell der Rate Limits ersetzt.

Das System funktioniert als “Wasserfall”: statt zu fragen “ist es erlaubt?”, fragt es “wie viel ist erlaubt, und von wo?”. Die Ebenen reihen sich aneinander — kostenlose Rate Limits, Free Tier, bezahlte Credits, Enterprise-Aktionen — und bieten ein nahtloses Kontinuum für den Benutzer.

PrinzipBeschreibung
EchtzeitSofortige Erkennung von Limitüberschreitungen und Aktivierung von Credits
IdempotenzJede Abbuchung trägt einen stabilen Schlüssel, was Doppelberechnungen eliminiert
Audit-TrailJede Saldoanpassung wird mit Zuordnung dokumentiert
AbstimmbarkeitVolle Transparenz darüber, warum eine Anfrage erlaubt/blockiert wird

OpenAI hat dieses System intern gebaut, nachdem Drittanbieter-Abrechnungsplattformen evaluiert wurden, die den Anforderungen an Echtzeitgenauigkeit und vollständige Beobachtbarkeit nicht entsprachen.

🔗 Beyond rate limits


Anthropic arbeitet mit CodePath für KI-Bildung zusammen

13. Februar — Anthropic geht eine Partnerschaft mit CodePath ein, dem größten Anbieter von Informatik-Ausbildungen für Hochschulstudenten in den USA. Die Zusammenarbeit integriert Claude und Claude Code in die KI-Lehrpläne von CodePath und erweitert den Zugang zu KI-Tools für über 20.000 Studenten.

Über 100 Studenten haben Claude Code bereits im Herbst 2025 in Open-Source-Projekten getestet. Die Howard University hat ihren Kurs “Intro to AI” mit Claude neu gestaltet und die Unterrichtszeit von 4 auf 2 Jahre reduziert. Über 40 % der CodePath-Studenten stammen aus Familien, die weniger als 50.000 $/Jahr verdienen — ein starkes Signal für die Demokratisierung des Zugangs zu KI-Tools.

Diese Partnerschaft ist Teil des breiteren Engagements von Anthropic für KI-Bildung, neben Kooperationen mit AFT, Island und Ruanda.

🔗 CodePath Ankündigung


Chris Liddell tritt dem Vorstand von Anthropic bei

13. Februar — Chris Liddell, ehemaliger stellvertretender Stabschef im Weißen Haus und Vice Chairman von General Motors, tritt dem Vorstand von Anthropic bei. Diese Ernennung stärkt die Präsenz von Anthropic in Regierungs- und Industriekreisen.

🔗 Anthropic Tweet


GABRIEL: OpenAI startet Open-Source-Toolkit für Sozialwissenschaften

13. Februar — Das Economic Research Team von OpenAI startet GABRIEL, eine Open-Source-Python-Bibliothek, die Sozialwissenschaftlern hilft, qualitative Daten in großem Maßstab in quantitative Daten umzuwandeln.

FähigkeitBeispiel
Qualitative AnalyseEine Frage in natürlicher Sprache stellen und auf tausende Dokumente anwenden
Lehrplan-AnalyseAufmerksamkeit messen, die verschiedenen Themen in Lehrplänen gewidmet wird
Merging & DeduplizierungDatensätze auch ohne übereinstimmende Spalten zusammenführen
De-IdentifizierungPersönliche Informationen maskieren

Das Toolkit ist so konzipiert, dass es minimales technisches Wissen erfordert, inklusive Tutorial-Notebook.

🔗 Ankündigung GABRIEL


Gemini rollt 5 Funktionen für Studenten aus

13. Februar — Google veröffentlicht einen umfassenden Leitfaden, der zeigt, wie Gemini 3 Studenten mit 5 Kategorien praktischer Funktionen hilft.

FunktionBeschreibung
SAT/JEE ÜbungstestsKomplette kostenlose Tests mit Feedback nach Bereich und personalisierten Lernplänen
Canvas WritingKollaborativer Raum zum Verfeinern von Texten, Erstellen von Präsentationen, Debuggen von Code
Deep LearningUpload von Bildern/PDFs von Notizen, interaktive Bilder mit Erklärungen per Klick
PrüfungsvorbereitungPersonalisierte Quizze, Audio Overviews (Podcasts), Lernkarten
Karriere-ZukunftÜberprüfung von Lebenslauf/Anschreiben, simulierte Interviews, professionelle Headshots via Nano Banana

Teilnahmeberechtigte Universitätsstudenten profitieren von 1 Jahr kostenlosem Google AI Pro (volles Gemini 3 Pro, 2 TB Speicher, erweitertes NotebookLM). Die Partnerschaft mit The Princeton Review sichert die Strenge der SAT-Tests.

🔗 Gemini Funktionen für Studenten


Qwen AI Slides: von der Idee zur Präsentation mit einem Klick

13. Februar — Alibaba Qwen startet offiziell Qwen AI Slides, eine Funktion, die Ideen, Text oder Dokumente automatisch in professionelle Präsentationen verwandelt. Das System kombiniert die Agenten-Fähigkeiten von Qwen3 mit dem Bildgenerierungsmodell Qwen-Image 2.0.

Ein Such-Agent recherchiert, organisiert und baut die narrative Struktur auf, dann generiert Qwen-Image 2.0 jede Folie als vollständige visuelle Komposition (Text, Layout, Farbpalette, Grafiken). Die Funktion ist über chat.qwen.ai zugänglich.

🔗 Tweet Qwen AI Slides


Copilot Coding Agent: Netzwerkänderung am 27. Februar

13. Februar — GitHub implementiert eine Änderung der Netzwerkarchitektur für den Copilot Coding Agent, wirksam ab 27. Februar 2026. Verbindungen werden nach Abonnementplan zu spezifischen Endpunkten geroutet statt zum aktuellen einzigen Endpunkt.

PlanEndpunkt
Copilot Businessapi.business.githubcopilot.com
Copilot Enterpriseapi.enterprise.githubcopilot.com
Copilot Pro/Pro+api.individual.githubcopilot.com

Teams, die selbst gehostete Runner oder Runner mit Azure Private Networking nutzen, müssen ihre Netzwerkkonfigurationen vor der Deadline aktualisieren. Aufgaben des Copilot Coding Agent werden nach dem 27. Februar ohne dieses Update fehlschlagen.

🔗 Änderungen der Netzwerkkonfiguration


Stability AI tritt der Tech Coalition bei

11. Februar — Stability AI kündigt den Beitritt zur Tech Coalition an, einer globalen Allianz von Technologieunternehmen, die zusammenarbeiten, um sexuelle Ausbeutung und Missbrauch von Kindern online zu bekämpfen. Eine CSR-Initiative, die sich in die Bemühungen der Branche für verantwortungsvolle KI einfügt.

🔗 Stability AI News


Was das bedeutet

Der 13. Februar markiert eine bemerkenswerte Konvergenz: GitHub und OpenAI vertiefen die agentische Automatisierung (Agentic Workflows auf der einen Seite, Codex-Skalierung auf der anderen), während Sicherheit mit dem Lockdown Mode einen zentralen Platz einnimmt. Der Beitrag von GPT-5.2 zur theoretischen Physik illustriert einen aufkommenden Trend: KI-Modelle begnügen sich nicht mehr damit zusammenzufassen oder zu generieren, sie beginnen verifizierbare wissenschaftliche Ergebnisse zu produzieren. Schließlich machen Anthropic und Google Bildung klar zu einer strategischen Achse — kostenloser Zugang, Universitätspartnerschaften, spezielle Tools für Studenten.


Quellen