Szukaj

GitHub Agentic Workflows w wersji preview, GPT-5.2 zajmuje się fizyką teoretyczną, OpenAI wprowadza Lockdown Mode

GitHub Agentic Workflows w wersji preview, GPT-5.2 zajmuje się fizyką teoretyczną, OpenAI wprowadza Lockdown Mode

GitHub uruchamia Agentic Workflows w wersji technical preview, umożliwiając automatyzację zadań w repozytorium za pomocą plików Markdown i agentów AI. Po stronie OpenAI, GPT-5.2 wyprowadza nowy wynik w fizyce teoretycznej, Lockdown Mode chroni ChatGPT przed wstrzykiwaniem promptów (prompt injections), a infrastruktura skalowania Codex i Sora zostaje szczegółowo opisana. Anthropic i Google stawiają na edukację poprzez partnerstwa i funkcje dedykowane studentom.


GitHub Agentic Workflows w Technical Preview

13 lutego — GitHub uruchamia Agentic Workflows w wersji technical preview, nowe podejście do automatyzacji repozytoriów oparte na agentach kodujących AI zintegrowanych natywnie z GitHub Actions.

Kluczowa koncepcja: opisywanie celów automatyzacji w naturalnym Markdown zamiast tradycyjnego YAML. Wystarczy plik .github/workflows/workflow.md — CLI gh aw konwertuje go na standardowy workflow GitHub Actions, wykonywany przez agenta AI (GitHub Copilot CLI, Claude lub Codex).

Przypadek użyciaOpis
Zautomatyzowane triażowanieEtykietowanie, kategoryzowanie i kierowanie zgłoszeń (issues)
Zsynchronizowana dokumentacjaUtrzymywanie dokumentacji w zgodzie z kodem
Ulepszanie testówAutomatyczne zwiększanie pokrycia testami
Analiza CI/CDBadanie awarii kompilacji (build)
Raporty o stanieGenerowanie okresowych analiz repozytorium

Bezpieczeństwo jest w centrum projektu: domyślne uprawnienia tylko do odczytu, sandboxing, izolacja sieciowa i biała lista narzędzi (allowlisting). Workflows mają natywny dostęp do GitHub MCP server, aby wchodzić w interakcje ze zgłoszeniami, PR-ami, Actions i systemami bezpieczeństwa. Wyzwalacze są elastyczne: zdarzenia, kalendarz, ręczne lub poprzez komentarze.

Autorzy (Don Syme i Peli de Halleux) zalecają rozpoczęcie od wyników o niskim ryzyku (komentarze, raporty) przed włączeniem tworzenia pull requestów.

🔗 Ogłoszenie GitHub Agentic Workflows

🔗 Szczegółowy wpis na blogu


GPT-5.2 wyprowadza nowy wynik w fizyce teoretycznej

13 lutego — OpenAI publikuje preprint wykazujący, że GPT-5.2 zaproponował wzór na amplitudę gluonu, o której fizycy sądzili, że nie może istnieć. Wynik, zatytułowany “Single-minus gluon tree amplitudes are nonzero”, został zweryfikowany przez wewnętrzny zespół i współpracowników akademickich.

Artykuł jest współpodpisany przez naukowców z Institute for Advanced Study (IAS), Vanderbilt University, Cambridge University i Harvard University. GPT-5.2 zidentyfikował strukturę matematyczną w teorii amplitud — dziedzinie fizyki cząstek — której tradycyjne podejścia nie zbadały.

Odkrycie to ilustruje potencjał zaawansowanych modeli AI w przyczynianiu się do podstawowych badań teoretycznych, zwłaszcza w dziedzinach, gdzie proste wzory często sygnalizują głębsze struktury. Preprint jest dostępny na arXiv i jest w trakcie zgłaszania do publikacji.

🔗 Artykuł OpenAI


OpenAI wprowadza Lockdown Mode i Elevated Risk Labels

13 lutego — OpenAI wprowadza dwa nowe zabezpieczenia w ChatGPT, aby przeciwdziałać atakom typu prompt injection, rosnącemu zagrożeniu w miarę jak systemy AI obsługują zadania obejmujące sieć i połączone aplikacje.

OchronaOpisDostępność
Lockdown ModeZaawansowane i opcjonalne ustawienie bezpieczeństwa dla użytkowników wysokiego ryzykaChatGPT
Elevated Risk labelsWyraźne etykiety sygnalizujące możliwości wprowadzające dodatkowe ryzykoChatGPT, Atlas, Codex

Zabezpieczenia te są dodatkiem do istniejących mechanizmów obronnych: sandboxing, ochrona przed eksfiltracją danych przez URL, kontrola dostępu oparta na rolach i dzienniki audytowe (audit logs). Celem jest zapewnienie użytkownikom i organizacjom większej jasności co do ryzyka i silniejszej kontroli w obliczu prób manipulacji przez osoby trzecie.

🔗 Ogłoszenie Lockdown Mode


Beyond Rate Limits: jak OpenAI skaluje dostęp do Codex i Sora

13 lutego — W obliczu szybkiej adopcji Codex i Sora przekraczającej prognozy, OpenAI szczegółowo opisuje architekturę swojego real-time access engine, który zastępuje tradycyjny model limitów (rate limits).

System działa w modelu “waterfall”: zamiast pytać “czy to jest dozwolone?”, pyta “ile jest dozwolone i skąd?”. Warstwy następują po sobie — darmowe limity, free tier, płatne kredyty, promocje enterprise — oferując użytkownikowi ciągłość bez przerw.

ZasadaOpis
Czas rzeczywistyNatychmiastowe wykrywanie przekroczenia limitów i aktywacja kredytów
IdempotentnośćKażde obciążenie nosi stabilny klucz, eliminując podwójne naliczanie
Audit trailKażda korekta salda udokumentowana z przypisaniem
UzgadnialnośćPełna przejrzystość dlaczego żądanie jest dozwolone/zablokowane

OpenAI zbudowało ten system wewnętrznie po ocenie zewnętrznych platform rozliczeniowych, które nie spełniały wymagań dotyczących dokładności w czasie rzeczywistym i pełnej obserwowalności.

🔗 Beyond rate limits


Anthropic współpracuje z CodePath w zakresie edukacji AI

13 lutego — Anthropic nawiązuje współpracę z CodePath, największym dostawcą szkoleń informatycznych dla studentów amerykańskiego szkolnictwa wyższego. Współpraca integruje Claude i Claude Code w programach nauczania AI CodePath, rozszerzając dostęp do narzędzi AI dla ponad 20 000 studentów.

Ponad 100 studentów przetestowało już Claude Code jesienią 2025 roku w projektach open-source. Howard University przeprojektował swój kurs “Intro to AI” z wykorzystaniem Claude, skracając czas nauczania z 4 lat do 2 lat. Ponad 40% studentów CodePath pochodzi z rodzin zarabiających mniej niż 50 000 USD rocznie — to silny sygnał demokratyzacji dostępu do narzędzi AI.

Partnerstwo to wpisuje się w szersze zaangażowanie Anthropic w edukację AI, obok współpracy z AFT, Islandią i Rwandą.

🔗 Ogłoszenie CodePath


Chris Liddell dołącza do zarządu Anthropic

13 lutego — Chris Liddell, były zastępca szefa personelu w Białym Domu i wiceprzewodniczący General Motors, dołącza do zarządu Anthropic. Nominacja ta wzmacnia obecność Anthropic w kręgach rządowych i przemysłowych.

🔗 Tweet Anthropic


GABRIEL: OpenAI uruchamia zestaw narzędzi open-source dla nauk społecznych

13 lutego — Economic Research Team w OpenAI uruchamia GABRIEL, bibliotekę Python open-source, która pomaga badaczom nauk społecznych przekształcać dane jakościowe w dane ilościowe na dużą skalę.

MożliwośćPrzykład
Analiza jakościowaZadanie pytania w języku naturalnym i zastosowanie go do tysięcy dokumentów
Analiza programowaMierzenie uwagi poświęconej różnym tematom w programach nauczania
Łączenie i deduplikacjaŁączenie zestawów danych nawet bez pasujących kolumn
DeidentyfikacjaMaskowanie informacji osobistych

Zestaw narzędzi został zaprojektowany tak, aby wymagać minimalnej wiedzy technicznej, z dołączonym notatnikiem samouczka.

🔗 Ogłoszenie GABRIEL


Gemini wdraża 5 funkcji dla studentów

13 lutego — Google publikuje kompleksowy przewodnik pokazujący, jak Gemini 3 pomaga studentom dzięki 5 kategoriom praktycznych funkcji.

FunkcjaOpis
Testy próbne SAT/JEEDarmowe pełne testy z informacją zwrotną według dziedziny i spersonalizowane plany nauki
Canvas WritingPrzestrzeń współpracy do dopracowywania tekstów, tworzenia prezentacji, debugowania kodu
Deep LearningPrzesyłanie obrazów/PDF-ów notatek, interaktywne obrazy z wyjaśnieniami po kliknięciu
Przygotowanie do egzaminuSpersonalizowane quizy, Audio Overviews (podcasty), fiszki
Przyszła karieraPrzegląd CV/listów motywacyjnych, symulowane rozmowy kwalifikacyjne, profesjonalne zdjęcia portretowe przez Nano Banana

Uprawnieni studenci uniwersyteccy korzystają z 1 roku darmowego Google AI Pro (pełny Gemini 3 Pro, 2 TB pamięci, zaawansowany NotebookLM). Partnerstwo z The Princeton Review zapewnia rygor testów SAT.

🔗 Gemini features for students


Qwen AI Slides: od pomysłu do prezentacji jednym kliknięciem

13 lutego — Alibaba Qwen oficjalnie uruchamia Qwen AI Slides, funkcję, która automatycznie przekształca pomysły, tekst lub dokumenty w profesjonalne prezentacje. System łączy możliwości agenta Qwen3 z modelem generowania obrazu Qwen-Image 2.0.

Search Agent wyszukuje, organizuje i buduje strukturę narracyjną, a następnie Qwen-Image 2.0 generuje każdy slajd jako kompletną kompozycję wizualną (tekst, układ, paleta kolorów, grafika). Funkcja jest dostępna przez chat.qwen.ai.

🔗 Tweet Qwen AI Slides


Copilot Coding Agent: zmiana sieci 27 lutego

13 lutego — GitHub wprowadza zmianę w architekturze sieci dla agenta kodującego Copilot, obowiązującą od 27 lutego 2026. Połączenia będą kierowane do konkretnych punktów końcowych (endpoints) w zależności od planu subskrypcji, zamiast do obecnego pojedynczego punktu końcowego.

PlanEndpoint
Copilot Businessapi.business.githubcopilot.com
Copilot Enterpriseapi.enterprise.githubcopilot.com
Copilot Pro/Pro+api.individual.githubcopilot.com

Zespoły korzystające z self-hosted runners lub runners z prywatną siecią Azure muszą zaktualizować swoje konfiguracje sieci przed ostatecznym terminem. Zadania agenta kodującego Copilot nie powiodą się po 27 lutego bez tej aktualizacji.

🔗 Network configuration changes


Stability AI dołącza do Tech Coalition

11 lutego — Stability AI ogłasza swoje przystąpienie do Tech Coalition, globalnego sojuszu firm technologicznych współpracujących w celu zwalczania wykorzystywania seksualnego i nadużyć wobec dzieci w Internecie. Inicjatywa CSR, która wpisuje się w wysiłki branży na rzecz odpowiedzialnej AI.

🔗 Stability AI News


Co to oznacza

Dzień 13 lutego wyznacza znaczącą konwergencję: GitHub i OpenAI pogłębiają automatyzację opartą na agentach (z jednej strony Agentic Workflows, z drugiej skalowanie Codex), podczas gdy bezpieczeństwo zajmuje centralne miejsce dzięki Lockdown Mode. Wkład GPT-5.2 w fizykę teoretyczną ilustruje wyłaniający się trend: modele AI nie zadowalają się już streszczaniem czy generowaniem, zaczynają produkować weryfikowalne wyniki naukowe. Wreszcie, Anthropic i Google wyraźnie czynią edukację strategiczną osią — darmowy dostęp, partnerstwa uniwersyteckie, narzędzia dedykowane studentom.


Źródła