GitHub uruchamia Agentic Workflows w wersji technical preview, umożliwiając automatyzację zadań w repozytorium za pomocą plików Markdown i agentów AI. Po stronie OpenAI, GPT-5.2 wyprowadza nowy wynik w fizyce teoretycznej, Lockdown Mode chroni ChatGPT przed wstrzykiwaniem promptów (prompt injections), a infrastruktura skalowania Codex i Sora zostaje szczegółowo opisana. Anthropic i Google stawiają na edukację poprzez partnerstwa i funkcje dedykowane studentom.
GitHub Agentic Workflows w Technical Preview
13 lutego — GitHub uruchamia Agentic Workflows w wersji technical preview, nowe podejście do automatyzacji repozytoriów oparte na agentach kodujących AI zintegrowanych natywnie z GitHub Actions.
Kluczowa koncepcja: opisywanie celów automatyzacji w naturalnym Markdown zamiast tradycyjnego YAML. Wystarczy plik .github/workflows/workflow.md — CLI gh aw konwertuje go na standardowy workflow GitHub Actions, wykonywany przez agenta AI (GitHub Copilot CLI, Claude lub Codex).
| Przypadek użycia | Opis |
|---|---|
| Zautomatyzowane triażowanie | Etykietowanie, kategoryzowanie i kierowanie zgłoszeń (issues) |
| Zsynchronizowana dokumentacja | Utrzymywanie dokumentacji w zgodzie z kodem |
| Ulepszanie testów | Automatyczne zwiększanie pokrycia testami |
| Analiza CI/CD | Badanie awarii kompilacji (build) |
| Raporty o stanie | Generowanie okresowych analiz repozytorium |
Bezpieczeństwo jest w centrum projektu: domyślne uprawnienia tylko do odczytu, sandboxing, izolacja sieciowa i biała lista narzędzi (allowlisting). Workflows mają natywny dostęp do GitHub MCP server, aby wchodzić w interakcje ze zgłoszeniami, PR-ami, Actions i systemami bezpieczeństwa. Wyzwalacze są elastyczne: zdarzenia, kalendarz, ręczne lub poprzez komentarze.
Autorzy (Don Syme i Peli de Halleux) zalecają rozpoczęcie od wyników o niskim ryzyku (komentarze, raporty) przed włączeniem tworzenia pull requestów.
🔗 Ogłoszenie GitHub Agentic Workflows
GPT-5.2 wyprowadza nowy wynik w fizyce teoretycznej
13 lutego — OpenAI publikuje preprint wykazujący, że GPT-5.2 zaproponował wzór na amplitudę gluonu, o której fizycy sądzili, że nie może istnieć. Wynik, zatytułowany “Single-minus gluon tree amplitudes are nonzero”, został zweryfikowany przez wewnętrzny zespół i współpracowników akademickich.
Artykuł jest współpodpisany przez naukowców z Institute for Advanced Study (IAS), Vanderbilt University, Cambridge University i Harvard University. GPT-5.2 zidentyfikował strukturę matematyczną w teorii amplitud — dziedzinie fizyki cząstek — której tradycyjne podejścia nie zbadały.
Odkrycie to ilustruje potencjał zaawansowanych modeli AI w przyczynianiu się do podstawowych badań teoretycznych, zwłaszcza w dziedzinach, gdzie proste wzory często sygnalizują głębsze struktury. Preprint jest dostępny na arXiv i jest w trakcie zgłaszania do publikacji.
OpenAI wprowadza Lockdown Mode i Elevated Risk Labels
13 lutego — OpenAI wprowadza dwa nowe zabezpieczenia w ChatGPT, aby przeciwdziałać atakom typu prompt injection, rosnącemu zagrożeniu w miarę jak systemy AI obsługują zadania obejmujące sieć i połączone aplikacje.
| Ochrona | Opis | Dostępność |
|---|---|---|
| Lockdown Mode | Zaawansowane i opcjonalne ustawienie bezpieczeństwa dla użytkowników wysokiego ryzyka | ChatGPT |
| Elevated Risk labels | Wyraźne etykiety sygnalizujące możliwości wprowadzające dodatkowe ryzyko | ChatGPT, Atlas, Codex |
Zabezpieczenia te są dodatkiem do istniejących mechanizmów obronnych: sandboxing, ochrona przed eksfiltracją danych przez URL, kontrola dostępu oparta na rolach i dzienniki audytowe (audit logs). Celem jest zapewnienie użytkownikom i organizacjom większej jasności co do ryzyka i silniejszej kontroli w obliczu prób manipulacji przez osoby trzecie.
Beyond Rate Limits: jak OpenAI skaluje dostęp do Codex i Sora
13 lutego — W obliczu szybkiej adopcji Codex i Sora przekraczającej prognozy, OpenAI szczegółowo opisuje architekturę swojego real-time access engine, który zastępuje tradycyjny model limitów (rate limits).
System działa w modelu “waterfall”: zamiast pytać “czy to jest dozwolone?”, pyta “ile jest dozwolone i skąd?”. Warstwy następują po sobie — darmowe limity, free tier, płatne kredyty, promocje enterprise — oferując użytkownikowi ciągłość bez przerw.
| Zasada | Opis |
|---|---|
| Czas rzeczywisty | Natychmiastowe wykrywanie przekroczenia limitów i aktywacja kredytów |
| Idempotentność | Każde obciążenie nosi stabilny klucz, eliminując podwójne naliczanie |
| Audit trail | Każda korekta salda udokumentowana z przypisaniem |
| Uzgadnialność | Pełna przejrzystość dlaczego żądanie jest dozwolone/zablokowane |
OpenAI zbudowało ten system wewnętrznie po ocenie zewnętrznych platform rozliczeniowych, które nie spełniały wymagań dotyczących dokładności w czasie rzeczywistym i pełnej obserwowalności.
Anthropic współpracuje z CodePath w zakresie edukacji AI
13 lutego — Anthropic nawiązuje współpracę z CodePath, największym dostawcą szkoleń informatycznych dla studentów amerykańskiego szkolnictwa wyższego. Współpraca integruje Claude i Claude Code w programach nauczania AI CodePath, rozszerzając dostęp do narzędzi AI dla ponad 20 000 studentów.
Ponad 100 studentów przetestowało już Claude Code jesienią 2025 roku w projektach open-source. Howard University przeprojektował swój kurs “Intro to AI” z wykorzystaniem Claude, skracając czas nauczania z 4 lat do 2 lat. Ponad 40% studentów CodePath pochodzi z rodzin zarabiających mniej niż 50 000 USD rocznie — to silny sygnał demokratyzacji dostępu do narzędzi AI.
Partnerstwo to wpisuje się w szersze zaangażowanie Anthropic w edukację AI, obok współpracy z AFT, Islandią i Rwandą.
Chris Liddell dołącza do zarządu Anthropic
13 lutego — Chris Liddell, były zastępca szefa personelu w Białym Domu i wiceprzewodniczący General Motors, dołącza do zarządu Anthropic. Nominacja ta wzmacnia obecność Anthropic w kręgach rządowych i przemysłowych.
GABRIEL: OpenAI uruchamia zestaw narzędzi open-source dla nauk społecznych
13 lutego — Economic Research Team w OpenAI uruchamia GABRIEL, bibliotekę Python open-source, która pomaga badaczom nauk społecznych przekształcać dane jakościowe w dane ilościowe na dużą skalę.
| Możliwość | Przykład |
|---|---|
| Analiza jakościowa | Zadanie pytania w języku naturalnym i zastosowanie go do tysięcy dokumentów |
| Analiza programowa | Mierzenie uwagi poświęconej różnym tematom w programach nauczania |
| Łączenie i deduplikacja | Łączenie zestawów danych nawet bez pasujących kolumn |
| Deidentyfikacja | Maskowanie informacji osobistych |
Zestaw narzędzi został zaprojektowany tak, aby wymagać minimalnej wiedzy technicznej, z dołączonym notatnikiem samouczka.
Gemini wdraża 5 funkcji dla studentów
13 lutego — Google publikuje kompleksowy przewodnik pokazujący, jak Gemini 3 pomaga studentom dzięki 5 kategoriom praktycznych funkcji.
| Funkcja | Opis |
|---|---|
| Testy próbne SAT/JEE | Darmowe pełne testy z informacją zwrotną według dziedziny i spersonalizowane plany nauki |
| Canvas Writing | Przestrzeń współpracy do dopracowywania tekstów, tworzenia prezentacji, debugowania kodu |
| Deep Learning | Przesyłanie obrazów/PDF-ów notatek, interaktywne obrazy z wyjaśnieniami po kliknięciu |
| Przygotowanie do egzaminu | Spersonalizowane quizy, Audio Overviews (podcasty), fiszki |
| Przyszła kariera | Przegląd CV/listów motywacyjnych, symulowane rozmowy kwalifikacyjne, profesjonalne zdjęcia portretowe przez Nano Banana |
Uprawnieni studenci uniwersyteccy korzystają z 1 roku darmowego Google AI Pro (pełny Gemini 3 Pro, 2 TB pamięci, zaawansowany NotebookLM). Partnerstwo z The Princeton Review zapewnia rygor testów SAT.
🔗 Gemini features for students
Qwen AI Slides: od pomysłu do prezentacji jednym kliknięciem
13 lutego — Alibaba Qwen oficjalnie uruchamia Qwen AI Slides, funkcję, która automatycznie przekształca pomysły, tekst lub dokumenty w profesjonalne prezentacje. System łączy możliwości agenta Qwen3 z modelem generowania obrazu Qwen-Image 2.0.
Search Agent wyszukuje, organizuje i buduje strukturę narracyjną, a następnie Qwen-Image 2.0 generuje każdy slajd jako kompletną kompozycję wizualną (tekst, układ, paleta kolorów, grafika). Funkcja jest dostępna przez chat.qwen.ai.
Copilot Coding Agent: zmiana sieci 27 lutego
13 lutego — GitHub wprowadza zmianę w architekturze sieci dla agenta kodującego Copilot, obowiązującą od 27 lutego 2026. Połączenia będą kierowane do konkretnych punktów końcowych (endpoints) w zależności od planu subskrypcji, zamiast do obecnego pojedynczego punktu końcowego.
| Plan | Endpoint |
|---|---|
| Copilot Business | api.business.githubcopilot.com |
| Copilot Enterprise | api.enterprise.githubcopilot.com |
| Copilot Pro/Pro+ | api.individual.githubcopilot.com |
Zespoły korzystające z self-hosted runners lub runners z prywatną siecią Azure muszą zaktualizować swoje konfiguracje sieci przed ostatecznym terminem. Zadania agenta kodującego Copilot nie powiodą się po 27 lutego bez tej aktualizacji.
🔗 Network configuration changes
Stability AI dołącza do Tech Coalition
11 lutego — Stability AI ogłasza swoje przystąpienie do Tech Coalition, globalnego sojuszu firm technologicznych współpracujących w celu zwalczania wykorzystywania seksualnego i nadużyć wobec dzieci w Internecie. Inicjatywa CSR, która wpisuje się w wysiłki branży na rzecz odpowiedzialnej AI.
Co to oznacza
Dzień 13 lutego wyznacza znaczącą konwergencję: GitHub i OpenAI pogłębiają automatyzację opartą na agentach (z jednej strony Agentic Workflows, z drugiej skalowanie Codex), podczas gdy bezpieczeństwo zajmuje centralne miejsce dzięki Lockdown Mode. Wkład GPT-5.2 w fizykę teoretyczną ilustruje wyłaniający się trend: modele AI nie zadowalają się już streszczaniem czy generowaniem, zaczynają produkować weryfikowalne wyniki naukowe. Wreszcie, Anthropic i Google wyraźnie czynią edukację strategiczną osią — darmowy dostęp, partnerstwa uniwersyteckie, narzędzia dedykowane studentom.
Źródła
- GitHub Agentic Workflows Technical Preview
- GitHub Agentic Workflows Blog
- OpenAI — New result in theoretical physics
- OpenAI — Lockdown Mode
- OpenAI — Beyond rate limits
- OpenAI — GABRIEL toolkit
- Anthropic — CodePath Partnership
- Anthropic — Chris Liddell board
- Google — Gemini features for students
- Qwen AI Slides
- GitHub — Network configuration changes
- Stability AI — Tech Coalition