Szukaj

Anthropic pozyskuje 30 mld $, GPT-5.3-Codex-Spark na Cerebras, Gemini 3 Deep Think

Anthropic pozyskuje 30 mld $, GPT-5.3-Codex-Spark na Cerebras, Gemini 3 Deep Think

Wyjątkowy dzień w AI: Anthropic ogłasza zbiórkę funduszy w wysokości 30 miliardów dolarów, podnosząc swoją wycenę do 380 miliardów, OpenAI wdraża model coding w czasie rzeczywistym z prędkością 1000+ tokenów/sekundę na Cerebras, a Google popycha Gemini 3 Deep Think ku nowym rekordom w naukach ścisłych. Po stronie ekosystemu, xAI restrukturyzuje swoje zespoły wokół 4 produktów, Mistral inwestuje 1,2 miliarda euro w Szwecji, a GitHub tymczasowo zawiesza GPT-5.3-Codex z powodów niezawodności.


Anthropic pozyskuje 30 mld $ w Serii G

12 lutego — Anthropic ogłasza zbiórkę funduszy Serii G w wysokości 30 miliardów dolarów, podnosząc wycenę post-money firmy do 380 miliardów dolarów. Runda jest współprowadzona przez GIC i Coatue, z udziałem D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ i MGX. Lista dodatkowych inwestorów obejmuje m.in. Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft i NVIDIA.

MetrykaWartość
Pozyskana kwota30 miliardów $
Wycena post-money380 miliardów $
Roczny przychód (run-rate)14 miliardów $
Roczny wzrost10x rocznie (ostatnie 3 lata)
Klienci >100k$/rokWzrost 7x w ciągu roku
Klienci Enterprise >1M$/rokPonad 500 (vs 12 dwa lata temu)
Klienci Fortune 108 na 10
Run-rate Claude Code2,5 miliarda $ (podwojony od stycznia 2026)
Tygodniowi użytkownicy Claude Code2x od 1 stycznia 2026
Commity GitHub przez Claude Code4% (podwojone w 1 miesiąc)
Subskrypcje business Claude Code4x od początku 2026
Udział przedsiębiorstw w Claude Code>50% przychodów Claude Code

Fundusze zostaną przeznaczone na badania podstawowe, rozwój produktów i ekspansję infrastruktury. Claude pozostaje jedynym modelem AI frontier dostępnym na trzech głównych platformach chmurowych: AWS (Bedrock), Google Cloud (Vertex AI) i Microsoft Azure (Foundry). Anthropic trenuje i uruchamia Claude na zróżnicowanej gamie sprzętu AI (AWS Trainium, Google TPUs, NVIDIA GPUs).

This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.

🇵🇱 To pozyskanie funduszy odzwierciedla niesamowity popyt, jaki obserwujemy ze strony tych klientów, i wykorzystamy tę inwestycję, aby kontynuować budowę produktów i modeli klasy enterprise, na których zaczęli polegać. — Krishna Rao, CFO w Anthropic (@AnthropicAI na X)

🔗 Oficjalne ogłoszenie


GPT-5.3-Codex-Spark: model czasu rzeczywistego na Cerebras

12 lutego — OpenAI uruchamia GPT-5.3-Codex-Spark w research preview, model codingu w czasie rzeczywistym zoptymalizowany pod kątem ultraszybkiej inferencji na Cerebras Wafer-Scale Engine 3. To pierwszy model OpenAI wdrożony na sprzęcie innym niż NVIDIA.

Codex-Spark to kompaktowa wersja GPT-5.3-Codex, zaprojektowana do pracy interaktywnej, gdzie opóźnienia liczą się tak samo jak inteligencja: celowane edycje, refaktoryzacja logiki, dostosowywanie interfejsów z natychmiastową informacją zwrotną.

SpecyfikacjaSzczegół
Tokeny/sekundę> 1 000 (vs 50-100 dla standardowych modeli)
Okno kontekstu128k tokenów
FormatTylko tekst (multimodalny planowany później)
Redukcja narzutu klient/serwer80% (Trwały WebSocket)
Redukcja narzutu na token30%
Redukcja czasu do pierwszego tokena50%

Model działa na Cerebras Wafer-Scale Engine 3, monolitycznym procesorze, który utrzymuje obliczenia ściśle sprzężone dla inferencji o wysokiej przepustowości. To uruchomienie oznacza pierwszy krok partnerstwa OpenAI-Cerebras ogłoszonego w styczniu 2026.

Codex-Spark jest dostępny w research preview dla subskrybentów ChatGPT Pro, w najnowszych wersjach aplikacji Codex, CLI i rozszerzenia VS Code. Dostęp API jest ograniczony do wybranych partnerów, z planowanym szerszym wdrożeniem.

W SWE-Bench Pro i Terminal-Bench 2.0 model wykazuje solidną wydajność, wykonując zadania w ułamku czasu w porównaniu do GPT-5.3-Codex. Podczas fazy research preview obowiązują oddzielne limity szybkości.

Docelowo Codex zaoferuje dwa uzupełniające się tryby: rozumowanie długohoryzontalne (autonomiczne zadania trwające kilka godzin/dni) i współpraca w czasie rzeczywistym (szybka iteracja). Oba tryby będą mogły się łączyć, z delegowaniem długich zadań do podagentów w tle.

🔗 Oficjalne ogłoszenie


Gemini 3 Deep Think: rekordowe wyniki w naukach ścisłych

12 lutego — Google ogłasza dużą aktualizację Gemini 3 Deep Think, swojego wyspecjalizowanego trybu rozumowania. Model jest teraz zaprojektowany do rozwiązywania konkretnych wyzwań w nauce, badaniach i inżynierii, wykraczając poza abstrakcyjną teorię.

Deep Think został zaktualizowany w ścisłej współpracy z naukowcami i badaczami. Celem jest zmierzenie się ze złożonymi problemami badawczymi, gdzie dane są często nieuporządkowane lub niekompletne i gdzie nie istnieje jedno rozwiązanie. Model łączy głęboką wiedzę naukową i użyteczność w inżynierii.

Rekordowe Benchmarki

BenchmarkWynikUwaga
Humanity’s Last Exam48,4% (bez narzędzi)Nowy standard dla modeli frontier
ARC-AGI-284,6%Zweryfikowane przez ARC Prize Foundation
CodeforcesElo 3455Programowanie konkurencyjne
IMO 2025Złoty MedalMiędzynarodowa Olimpiada Matematyczna
IPhO 2025 (pisemny)Złoty MedalMiędzynarodowa Olimpiada Fizyczna
IChO 2025 (pisemny)Złoty MedalMiędzynarodowa Olimpiada Chemiczna
CMT-Benchmark50,5%Zaawansowana Fizyka Teoretyczna

Rzeczywiste przypadki użycia

  • Matematyka (Lisa Carbone, Rutgers University): Deep Think zidentyfikował subtelny błąd logiczny w wysoce technicznym artykule matematycznym, który umknął ludzkiej recenzji. Pracuje ona nad strukturami matematycznymi niezbędnymi dla fizyki wysokich energii.
  • Inżynieria materiałowa (Wang Lab, Duke University): Optymalizacja metod produkcji do wzrostu złożonych kryształów, kandydatów na materiały półprzewodnikowe. Deep Think zaprojektował przepis na hodowanie cienkich warstw o grubości ponad 100 mikrometrów.
  • Inżynieria mechaniczna (Anupam Pathak, Google Platforms & Devices): Iteracja na fizycznych prototypach z prędkością oprogramowania. Możliwość przekształcenia szkicu w obiekt do druku 3D (generowanie pliku STL).

Gemini 3 Deep Think jest dostępny od dzisiaj dla subskrybentów Google AI Ultra w aplikacji Gemini, oraz po raz pierwszy przez API we wczesnym dostępie dla badaczy, inżynierów i przedsiębiorstw.

🔗 Oficjalne ogłoszenie


Restrukturyzacja xAI: 4 zespoły i Macrohard

11 lutego — xAI publikuje 45-minutowe all-hands na X, ujawniając dużą restrukturyzację firmy po odejściu połowy jej współzałożycieli (6 z 12). Ostatnie odejścia to Tony Wu i Jimmy Ba.

Elon Musk ogłasza reorganizację xAI w 4 główne zespoły:

ZespółFokusLider
GrokChatbot + głos-
CodingSystem kodu aplikacji-
ImagineGenerowanie wideo-
MacrohardSymulacja komputerowa → przedsiębiorstwaToby Pohlen

Macrohard to najbardziej ambitny projekt: według Toby’ego Pohlena system “jest w stanie zrobić wszystko, co komputer może zrobić na komputerze”. Ambicje sięgają projektowania silników rakietowych przez AI.

Kluczowe ogłoszone metryki

  • X przekroczył 1 miliard USD rocznego powtarzalnego przychodu (subskrypcje)
  • Imagine generuje 50 milionów filmów dziennie
  • Ponad 6 miliardów obrazów w ciągu ostatnich 30 dni

Międzyplanetarna wizja Muska rozciąga się od orbitalnych centrów danych po bazy księżycowe. Te ogłoszenia pojawiają się po przejęciu xAI przez SpaceX (2 lutego) i odejściu 6 współzałożycieli z 12 w ciągu ostatniego roku (Kyle Kosic do OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).

🔗 Artykuł TechCrunch


Mistral inwestuje 1,2 mld EUR w Szwecji

11 lutego — Mistral AI ogłasza inwestycję w wysokości 1,2 miliarda euro (1,4 miliarda USD) w budowę infrastruktury AI w Szwecji, we współpracy z EcoDataCenter. To pierwsza inwestycja infrastrukturalna AI Mistrala poza Francją.

Centrum danych będzie zlokalizowane w Borlänge (Szwecja) na terenie EcoDataCenter, z planowanym otwarciem w 2027 roku. Obiekt zapewni 23 megawaty mocy obliczeniowej i będzie hostował GPU NVIDIA Vera Rubin najnowszej generacji.

SzczegółWartość
Kwota1,2 mld EUR / 1,4 mld USD
PartnerEcoDataCenter
LokalizacjaBorlänge, Szwecja
Otwarcie2027
Pojemność23 MW
GPUNVIDIA Vera Rubin
Prognozowany przychód2 mld EUR w ciągu 5 lat

Arthur Mensch, CEO Mistral AI, oświadczył, że ta inwestycja jest “konkretnym krokiem w kierunku budowy niezależnych zdolności w Europie, dedykowanych AI”. Wybór Szwecji tłumaczy się jej dostępem do czystej i stosunkowo taniej energii. Celem jest dostarczenie w pełni europejskiego stosu AI — zaprojektowanego, zbudowanego i obsługiwanego w całym łańcuchu wartości AI, z danymi przetwarzanymi i przechowywanymi lokalnie w Europie.

🔗 Artykuł Tech.eu


Qwen-Image-2.0: ujednolicone generowanie i edycja obrazów

10 lutego — Alibaba uruchamia Qwen-Image-2.0, model fundacyjny nowej generacji do generowania obrazów, który łączy generowanie text-to-image i edycję obrazów w jednej architekturze.

Główne zmiany w porównaniu do v1:

  • Ujednolicona architektura generowania + edycji (wcześniej oddzielne modele)
  • Bardziej kompaktowy model: 7B parametrów (wobec 20B dla v1)
  • Ulepszone renderowanie tekstu z obsługą promptów do 1K tokenów
  • Natywna rozdzielczość 2K (2048x2048)
BenchmarkQwen-Image-2.0FLUX.1
DPG-Bench88,3283,84
AI Arena (blind eval)#1-

Model wyróżnia się w renderowaniu tekstu w języku chińskim i angielskim w różnych formatach: infografiki, plakaty, kaligrafia, oznakowanie. Qwen-Image-2.0 jest dostępny w testach API na platformie Alibaba Cloud BaiLian oraz bezpłatnie przez Qwen Chat (chat.qwen.ai).

🔗 Oficjalne ogłoszenie


Deep Research przechodzi na GPT-5.2

10 lutego — OpenAI aktualizuje ChatGPT Deep Research modelem GPT-5.2, zastępując poprzednie wersje o3 i o4-mini. Aktualizacja wprowadza połączenia z aplikacjami, wyszukiwanie na określonych stronach i kontrole w czasie rzeczywistym.

FunkcjonalnośćSzczegół
ModelGPT-5.2 (zastępuje o3 / o4-mini)
Połączenia aplikacjiGmail, Google Calendar, Google Contacts + dowolne MCP
Wyszukiwanie celowaneOgraniczenie do określonych stron i zaufanych źródeł
Kontrole w czasie rzeczywistymŚledzenie postępów, przerywanie i przekierowywanie w trakcie
Plan badańMożliwy do utworzenia i edycji przed uruchomieniem
InterfejsPrzeprojektowany pasek boczny + widok raportu na pełnym ekranie
EksportPDF i DOCX

Użytkownicy mogą teraz łączyć Deep Research z dowolnym serwerem MCP lub aplikacją i ograniczać wyszukiwania w sieci do zaufanych stron dla bardziej precyzyjnych i wiarygodnych raportów. Aplikacje działają w trybie tylko do odczytu jako wiarygodne źródła.

Wdrażanie rozpoczęło się 10 lutego dla użytkowników Plus i Pro, a dla użytkowników Free i Go nastąpi w kolejnych dniach.

🔗 Oficjalne ogłoszenie


ChatGPT dołącza do GenAI.mil Pentagonu

10 lutego — OpenAI ogłasza wdrożenie niestandardowej wersji ChatGPT na GenAI.mil, platformie AI enterprise Departamentu Obrony USA. ChatGPT dołącza do Google Gemini (uruchomionego w grudniu 2025) i xAI Grok (dodanego pod koniec grudnia 2025) na platformie.

SzczegółWartość
PlatformaGenAI.mil (DoD)
Potencjalni użytkownicy~3 miliony (wojskowi, cywile, kontrahenci)
Aktywni użytkownicy platformy1,1 miliona unikalnych od uruchomienia
KlasyfikacjaTylko dane niejawne
InfrastrukturaAutoryzowana chmura rządowa
Izolacja danychDane izolowane, nieużywane do trenowania modeli OpenAI

Przypadki użycia obejmują syntezę i analizę dokumentów politycznych, redagowanie materiałów zamówieniowych, generowanie raportów wewnętrznych i list kontrolnych zgodności oraz pomoc w badaniach i planowaniu.

🔗 Oficjalne ogłoszenie


ElevenLabs for Government

11 lutego — ElevenLabs uruchamia ElevenLabs for Government, inicjatywę dedykowaną sektorowi publicznemu ogłoszoną na ElevenLabs Summit w Londynie. Ta platforma oferuje agentów głosowych i czatowych AI zaprojektowanych dla organizacji rządowych, dostępnych 24/7, w wielu językach, przez telefon, czat, e-mail i WhatsApp.

Platforma ma trzy cele:

  • Dostępność i inkluzywność: wielojęzyczni agenci omnikanałowi zdolni do natychmiastowego rozwiązywania zapytań obywateli
  • Wydajność i produktywność: automatyzacja kontaktów o dużej objętości i redukcja transferów między usługami
  • Zaufanie i zaangażowanie: poprawa dostępu do komunikacji zgodnej z polityką publiczną
WdrożenieSzczegóły
Republika CzeskaKrajowe infolinie ds. zatrudnienia i świadczeń, ~5 000 połączeń/dzień, 85% autonomicznego rozwiązywania
UkrainaCyfrowy bliźniak wysokiego urzędnika + usługi publiczne, we współpracy z Ministerstwem Transformacji Cyfrowej
Midland, Teksas (USA)Obywatelski konsjerż głosowy “Jacky”, szacowana redukcja 7 000 nieodebranych połączeń/miesiąc

Platforma posiada certyfikaty SOC 2 Type 2, RODO (GDPR), CPRA i HIPAA, aby spełniać wymagania bezpieczeństwa sektora publicznego.

🔗 Oficjalne ogłoszenie


Anthropic pokrywa podwyżki cen prądu

11 lutego — Anthropic ogłasza, że pokryje podwyżki cen energii elektrycznej dla konsumentów spowodowane przez swoje centra danych. Firma podejmuje cztery konkretne zobowiązania:

ZobowiązanieSzczegół
Koszty infrastruktury sieciowejPokrycie 100% kosztów przyłączenia do sieci
Nowa produkcja energiiUruchomienie nowych mocy wytwórczych dostosowanych do potrzeb
Redukcja presji na siećInwestycja w systemy redukcji zużycia w szczycie
Inwestycja społecznaUtworzenie setek stałych miejsc pracy i tysięcy miejsc pracy w budownictwie

🔗 Oficjalne ogłoszenie


Anthropic przekazuje 20 mln $ na regulację AI

12 lutego — Anthropic ogłasza darowiznę w wysokości 20 milionów dolarów na rzecz Public First Action, nowej ponadpartyjnej organizacji 501(c)(4) w USA. Celem jest mobilizacja obywateli i decydentów w kwestiach AI w interesie publicznym.

Tweet Anthropic podkreśla, że AI jest przyjmowana szybciej niż jakakolwiek technologia w historii, a okno na właściwe ukształtowanie polityki publicznej się zamyka.

🔗 Ogłoszenie na X


Claude Code Desktop: lokalne pluginy i marketplace

11 lutego — Boris Cherny (lead Claude Code w Anthropic) publikuje wątek szczegółowo opisujący, co inżynierowie kochają w Claude Code: jego konfigurowalność. Wymienia hooki, pluginy, LSP, MCP, skills, effort, custom agents, status lines, output styles jako mechanizmy dostosowywania.

Równolegle Lydia Hallie ogłasza, że Claude Code na desktopie obsługuje teraz lokalne pluginy. Użytkownicy mogą instalować niestandardowe polecenia slash, skills i serwery MCP z marketplace, z automatyczną synchronizacją między desktopem a CLI.

🔗 Wątek Borisa Chernego


GitHub Mobile: Wybór Modelu dla Copilot

11 lutego — GitHub dodaje selektor modeli do Copilot Coding Agent w aplikacji GitHub Mobile, na iOS i Android.

Użytkownicy Copilot Pro i Pro+ mogą teraz wybierać model AI zasilający ich sesje coding agent bezpośrednio z telefonu, bez konieczności przechodzenia na desktop.

Dostępny ModelWydawca
Auto (domyślny — optymalizuje szybkość i wydajność)GitHub
Claude Opus 4.5Anthropic
Claude Opus 4.6Anthropic
Claude Sonnet 4.5Anthropic
GPT-5.1-Codex-MaxOpenAI
GPT-5.2-CodexOpenAI

Tryb Auto automatycznie wybiera model, aby zoptymalizować szybkość i wydajność w zależności od dostępności. Funkcjonalność jest dostępna od teraz dla subskrybentów Copilot Pro i Pro+. Wsparcie dla Business i Enterprise nadejdzie wkrótce. Uwaga: GPT-5.3-Codex, udostępniony w trybie GA 9 lutego, nie znajduje się jeszcze na liście mobilnej.

🔗 GitHub Changelog


GitHub zawiesza GPT-5.3-Codex (niezawodność)

10 lutego — GitHub ogłasza tymczasowe zawieszenie wdrażania GPT-5.3-Codex w GitHub Copilot z powodów niezawodności platformy, zaledwie dzień po ogłoszeniu jego ogólnej dostępności.

Tweet, który cytuje w odpowiedzi ogłoszenie z 9 lutego o GA GPT-5.3-Codex, wygenerował 357 500 wyświetleń i 1000 polubień, świadcząc o wpływie na społeczność deweloperów. Kilku użytkowników zgłosiło problemy z dostępnością usługi w odpowiedziach.

Fakt, że model nie widnieje jeszcze na liście Mobile Model Picker (ogłoszonej 11 lutego), może być związany z tym zawieszeniem.

🔗 Ogłoszenie na X


Manus uruchamia Project Skills

12 lutego — Manus (teraz pod Meta) uruchamia Project Skills, funkcjonalność pozwalającą na tworzenie dedykowanych bibliotek umiejętności dla projektu.

Każdy projekt może skompletować zestaw skills wybranych z pul “Team Skills” lub kolekcji osobistych. Idea: przekształcenie standardowego folderu projektu w inteligentną i autonomiczną przestrzeń roboczą.

FunkcjonalnośćOpis
Biblioteki na projektKompletowanie niestandardowych zestawów narzędzi z pul zespołowych lub osobistych
Zawarte przepływy pracyTylko skills wyraźnie dodane do projektu mogą być wyzwalane
Zablokowane przepływy pracyAdministratorzy mogą zablokować zestaw skills, aby standaryzować procesy

Wyróżnione korzyści: szybszy onboarding, skalowanie indywidualnej wiedzy eksperckiej na organizację i budowanie “wiedzy instytucjonalnej”, która poprawia się z czasem. Dostępne natychmiast dla wszystkich użytkowników Manus.

🔗 Oficjalne ogłoszenie


Gemini CLI v0.28.0 + Extension Settings

10-11 lutego — Google publikuje wersję 0.28.0 Gemini CLI i ogłasza Extension Settings, nową funkcjonalność upraszczającą konfigurację rozszerzeń.

Gemini CLI v0.28.0 (10 lutego)

NowośćSzczegół
Polecenie /prompt-suggestNowe polecenie slash dla sugestii promptów
Automatyczny motywAdaptacja na podstawie tła terminala
Kompatybilność IDEDodano wsparcie dla Positron IDE
Ulepszone OAuthInteraktywna i nieinteraktywna zgoda OAuth
Checklist componentKomponent do zarządzania zadaniami strukturalnymi w trybie plan
PodagenciDynamiczna rejestracja polityk dla podagentów
Wykonywanie w tlePolecenia powłoki w tle

Extension Settings (11 lutego)

Rozszerzenia Gemini CLI mogą teraz definiować parametry konfiguracyjne, które użytkownicy podają podczas instalacji. Automatyczna konfiguracja z interaktywnymi promptami, wbudowane bezpieczeństwo (dane wrażliwe, takie jak klucze API, są przechowywane w pęku kluczy systemu) i scentralizowane zarządzanie przez gemini extensions config. Rozszerzenia Data Cloud (BigQuery, Cloud SQL, Firestore, Looker, Spanner) już implementują tę funkcjonalność.

🔗 Oficjalne ogłoszenie


Zakupy AI w Google Search i Gemini

11 lutego — Google ogłasza integrację funkcji zakupowych bezpośrednio w swoich produktach AI — Search AI Mode i chatbocie Gemini.

Użytkownicy mogą teraz kupować artykuły Etsy i Wayfair bezpośrednio w chatbocie Gemini. Direct Offers, nowa funkcja w AI Mode, pozwala markom oferować zniżki potencjalnym kupującym. Nowe formaty reklam są testowane w AI Mode w Search dla sprzedawców detalicznych.

Google współpracuje z Walmart, Target i Shopify nad protokołem checkout pozwalającym konsumentom na finalizację zakupów bezpośrednio w produktach AI Google.

🔗 Artykuł PYMNTS


Raport GTIG: ataki destylacyjne na Gemini

12 lutego — Google Threat Intelligence Group (GTIG) publikuje raport ujawniający, że Gemini był celem ataków destylacyjnych — masowych prób klonowania poprzez powtarzane prompty.

Jedna kampania przesłała ponad 100 000 promptów do Gemini, zanim została wykryta. Ataki celowały specyficznie w algorytmy rozumowania Gemini. Atakującymi są głównie prywatne firmy i badacze szukający przewagi konkurencyjnej.

Systemy Google wykryły aktywność w czasie rzeczywistym i dostosowały zabezpieczenia. Google uważa destylację za kradzież własności intelektualnej.

🔗 Artykuł NBC News


Codex CLI v0.99.0: współbieżne wykonywanie powłoki

11 lutego — OpenAI publikuje Codex CLI v0.99.0 ze współbieżnym wykonywaniem powłoki, konfigurowalnym paskiem statusu i dedykowanymi API app-server.

FunkcjonalnośćSzczegół
Współbieżne wykonywanie powłokiBezpośrednie polecenia powłoki nie blokują już trwającej tury
/statuslineInteraktywna konfiguracja metadanych w stopce TUI
Adaptacyjny resume pickerNowy selektor do wznawiania sesji
App-server APIDedykowane API do integracji aplikacji
Admin controlsKontrole administratora dla wyszukiwania w sieci i sieci
ObrazyWsparcie GIF/WebP
SnapshottingMigawki środowiska
Steer modeStabilny i domyślnie aktywny (Enter wysyła, Tab kolejkuje)

Pakowanie npm zostało przerobione: binarne pliki specyficzne dla platformy są dystrybuowane przez dist-tagi @openai/codex, zmniejszając rozmiar pakietów.

🔗 Changelog Codex CLI


Qwen Chat AI Slides

12 lutego — Qwen ogłasza nadchodzące przybycie AI Slides w Qwen Chat. Funkcjonalność pozwala na konwersję różnych typów dokumentów w prezentacje: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.

Funkcjonalność jest zbudowana z Qwen Agent + Qwen-Image 2.0 (model obrazu uruchomiony kilka dni wcześniej). Chen Cheng zademonstrował zdolność przekształcania artykułów akademickich w prezentacje ustne w kilka minut, ze zintegrowanym agentem wyszukiwania.

🔗 Ogłoszenie na X


Co to oznacza

Zbiórka funduszy w wysokości 30 miliardów dolarów przez Anthropic przy wycenie 380 miliardów potwierdza dominację modeli frontier w gospodarce AI. Roczny run-rate 14 miliardów dolarów i udział 2,5 miliarda generowany przez Claude Code pokazują, że coding wspomagany przez AI stał się infrastrukturą krytyczną dla deweloperów i przedsiębiorstw.

Pojawienie się GPT-5.3-Codex-Spark na Cerebras oznacza punkt zwrotny w dywersyfikacji sprzętu AI poza NVIDIA. Inferencja przy 1000+ tokenach/sekundę zmienia naturę interakcji z modelami kodu, umożliwiając płynną współpracę w czasie rzeczywistym.

Gemini 3 Deep Think ze swoimi złotymi medalami na olimpiadach naukowych i wynikiem 84,6% w ARC-AGI-2 demonstruje, że modele frontier zaczynają osiągać poziom rozumowania naukowego porównywalny z najlepszymi ludźmi w wyspecjalizowanych dziedzinach.

Restrukturyzacja xAI w 4 zespoły z Macrohard — mającym na celu robienie “wszystkiego, co komputer może zrobić” — i masowa inwestycja Mistral w Europie pokazują, że wyścig o infrastrukturę AI przyspiesza globalnie. Zawieszenie GPT-5.3-Codex przez GitHub przypomina jednak, że niezawodność pozostaje głównym wyzwaniem dla wdrożeń na dużą skalę.


Źródła