Căutare

OpenAI lansează GPT-5.5, Anthropic deschide memoria pentru Managed Agents, Kimi K2.6 Agent Swarm

OpenAI lansează GPT-5.5, Anthropic deschide memoria pentru Managed Agents, Kimi K2.6 Agent Swarm

Pe 23 aprilie 2026 se conturează o zi încărcată: OpenAI lansează GPT-5.5 cu 85% pe ARC-AGI-2 și un tarif API de $5/M tokens la intrare, în timp ce Anthropic deschide memoria persistentă în beta pentru Managed Agents și publică un post-mortem despre Claude Code. În paralel, GitHub Copilot livrează șapte actualizări în trei zile, Kimi K2.6 implementează un roi (swarm) de 300 de subagenți, iar SpaceX încheie un parteneriat de codare cu Cursor.


GPT-5.5 : modelul frontier al OpenAI

23 aprilie — OpenAI lansează GPT-5.5, cel mai puternic model al său de până acum, conceput pentru munca reală și agenți. Îmbunătățește semnificativ codarea agentică, utilizarea computerului (computer use), munca de cunoaștere și cercetarea științifică, păstrând în același timp latența lui GPT-5.4.

Disponibilitate și tarifare

GPT-5.5 este disponibil imediat pentru abonații ChatGPT Plus, Pro, Business și Enterprise, precum și în Codex. Accesul API sosește „foarte curând”.

OfertăAcces APIIntrareIeșire
GPT-5.5 standardCurând$5 / M tokens$30 / M tokens
GPT-5.5 ProCurând$30 / M tokens$180 / M tokens

Fereastra de context în Codex ajunge la 400K tokens. Este disponibil un mod Fast — 1,5× mai rapid, 2,5× costul.

Benchmarks

EvaluareGPT-5.5GPT-5.4Claude Opus 4.7Gemini 3.1 Pro
Terminal-Bench 2.082.7%75.1%69.4%68.5%
Expert-SWE (intern)73.1%68.5%
SWE-Bench Pro58.6%57.7%64.3%54.2%
GDPval84.9%83.0%80.3%67.3%
OSWorld-Verified78.7%75.0%78.0%
ARC-AGI-285.0%73.3%75.8%77.1%
FrontierMath Tier 435.4%27.1%22.9%16.7%
CyberGym81.8%79.0%73.1%
BixBench (bioinformatică)80.5%74.0%

GPT-5.5 este în frunte pe majoritatea benchmarks, cu o excepție notabilă: SWE-Bench Pro, unde Claude Opus 4.7 păstrează avantajul (64.3% vs 58.6%).

Infrastructură și securitate

Modelul a fost co-proiectat cu NVIDIA GB200/GB300 NVL72. Codex a folosit GPT-5.5 pentru a-și optimiza propria infrastructură, câștigând +20% viteză de generare de tokens. Pe partea de securitate cibernetică, GPT-5.5 este clasificat High în Preparedness Framework al OpenAI (nu Critical); programul Trusted Access Cyber i-a fost extins.

Cercetare științifică

Dincolo de cod, GPT-5.5 a ajutat la demonstrarea unei noi teoreme despre numerele Ramsey (combinatorică), verificată formal în Lean. De asemenea, a analizat un set de date genomic de 62 de eșantioane și 28 000 de gene în câteva minute — o sarcină care ar fi cerut luni unei echipe de cercetători.

« GPT-5.5 is noticeably smarter and more persistent than GPT-5.4, with stronger coding performance and more reliable tool use. »

🇷🇴 GPT-5.5 este vizibil mai inteligent și mai perseverent decât GPT-5.4, cu performanțe mai bune la codare și o utilizare a instrumentelor mai fiabilă. — Michael Truell, co-fondator și CEO al Cursor

🔗 Anunț GPT-5.5


Valul agenților persistenți

Trei anunțuri majore converg pe 23 aprilie în jurul agentului persistent, capabil să acționeze autonom pe perioade lungi și să rețină contextul de la o sesiune la alta.

OpenAI Workspace Agents în ChatGPT

22 aprilie — OpenAI prezintă agenții din spațiul de lucru (Workspace Agents): agenți partajați pe care o echipă îi creează o singură dată, îi folosește împreună în ChatGPT sau Slack și îi îmbunătățește treptat. Alimentați de Codex în cloud, ei pot executa sarcini complexe chiar și când utilizatorul este deconectat. Workspace Agents înlocuiesc treptat GPT-urile, care rămân disponibile în timpul tranziției.

Tip de agentFuncționalitate
Verificator softwareExaminează cereri, compară politici, creează tichete IT
Router de feedback produsMonitorizează Slack/support/forums → tichete prioritizate
Generator de rapoarteExtrage date vinerea, creează grafice, sinteză
Agent de prospecțiuneCercetează lead-uri, evaluează, redactează emailuri, actualizează CRM
Responsabil de riscuri terțeEvaluează furnizori, produce raport structurat

Disponibili în research preview pentru Business, Enterprise, Edu și Teachers; gratuit până la 6 mai 2026, apoi facturare în credits.

Potrivit Ankur Bhatt (AI Engineering, Rippling), ceea ce înainte necesita 5 până la 6 ore pe săptămână pentru echipele de vânzări se execută acum automat, în fundal, pentru fiecare oportunitate.

🔗 Workspace Agents


Anthropic — Memorie pentru Claude Managed Agents

23 aprilie — Memoria pentru Claude Managed Agents este disponibilă în beta publică pe Claude Platform. Agenții pot acum învăța de la o sesiune la alta datorită unui strat de memorie montat direct peste un sistem de fișiere: agenții folosesc aceleași capabilități bash și de execuție a codului pe care le folosesc deja pentru sarcinile agentice.

FuncționalitateDetaliu
Stores partajabileMai mulți agenți, domenii de acces diferite (doar citire / citire-scriere)
Acces concurentFără suprascriere între sesiuni paralele
Jurnal de auditCe sesiune, ce agent, ce memorie
Revenire înapoiLa orice versiune anterioară
ExportabilitateMemorii gestionabile prin API

Rezultatele clienților ilustrează impactul concret:

ClientRezultat
Rakuten-97% erori la primul pas, -27% cost, -34% latență
Wisedocs+30% viteză de verificare documentară
NetflixContinuitatea contextului între sesiuni fără actualizare manuală
AndoMemorie de platformă fără infrastructură dedicată

Memory in Claude Managed Agents lets us put continuous learning into production at scale. Our agents distill lessons from every session, delivering 97% fewer first-pass errors at 27% lower cost and 34% lower latency.

🇷🇴 Memoria din Claude Managed Agents ne permite să punem în producție învățarea continuă la scară largă. Agenții noștri distilează lecțiile din fiecare sesiune, livrând cu 97 % mai puține erori la primul pas, cu 27 % cost mai mic și cu 34 % latență mai mică. — Yusuke Kaji, General Manager AI for Business, Rakuten

🔗 Memorie Managed Agents


Claude Code : post-mortem al calității și două versiuni noi

Post-mortem și resetarea limitelor

23 aprilie — Echipa Claude Code a publicat un post-mortem despre trei probleme de calitate semnalate în cursul lunii trecute. Toate sunt corectate în v2.1.116+. Limitele de utilizare au fost resetate pentru toți abonații.

Over the past month, some of you reported Claude Code’s quality had slipped. We investigated, and published a post-mortem on the three issues we found. All are fixed in v2.1.116+ and we’ve reset usage limits for all subscribers.

🇷🇴 În cursul lunii trecute, unii dintre voi au semnalat că nivelul de calitate al Claude Code a scăzut. Am investigat și am publicat un post-mortem despre cele trei probleme identificate. Toate sunt corectate în v2.1.116+ și am resetat limitele de utilizare pentru toți abonații.@ClaudeDevs

v2.1.117 și v2.1.118

VersiuneFuncționalități principale
v2.1.118Mod vizual Vim (v/V) cu selecție și operatori; /usage unificat (fuzionează /cost și /stats); teme personalizate în /theme; hooks care invocă instrumente MCP prin type: "mcp_tool"; DISABLE_UPDATES strict; moștenire managed settings Windows via WSL
v2.1.117Effort implicit trecut la high pentru Pro/Max pe Opus 4.6 și Sonnet 4.6 (era medium); fork de subagenți activabil pe builds externe; glob/Grep înlocuite de bfs/ugrep integrate pentru căutări mai rapide; fix sesiuni Opus 4.7 (context 1M calculat corect); fix Bedrock+Opus 4.7 cu thinking dezactivat

🔗 CHANGELOG Claude Code


Noi conectori Claude pentru viața de zi cu zi

23 aprilie — Anthropic își extinde repertoriul de conectori către aplicații de consum. Din iulie 2025, erau disponibili peste 200 de conectori pentru instrumente profesionale; această actualizare adaugă 15 servicii de zi cu zi.

AplicațieCategorie
AllTrailsDrumeții
AudibleCărți audio
Booking.comCălătorii
InstacartCumpărături online
Intuit Credit KarmaFinanțe
Intuit TurboTaxFiscalitate
ResyRezervări la restaurant
SpotifyMuzică
StubHubBilete
TaskrabbitServicii la domiciliu
ThumbtackProfesioniști locali
TripAdvisorCălătorii
UberTransport
Uber EatsLivrare de mâncare
ViatorActivități turistice

Claude sugerează acum automat conectorii relevanți în funcție de contextul conversației. Disponibili pe toate planurile (inclusiv gratuit), web, desktop și mobile (mobile în beta). Fără plasare plătită sau răspuns sponsorizat; datele unei aplicații nu sunt folosite pentru antrenarea modelelor.

🔗 Conectori pentru viața de zi cu zi


GitHub Copilot — Șapte actualizări în trei zile

GitHub Copilot a publicat șapte intrări în changelog între 22 și 23 aprilie.

Chat pentru pull requests (3 noi capabilități)

23 aprilie — Copilot Chat integrează acum trei capabilități pentru pull requests, accesibile prin github.com/copilot sau butonul Copilot de pe diffs (preview public):

  • Înțelegerea PR (pull request understanding) : comentarii, modificări, commits și review-uri integrate ca context
  • Review de PR : review structurat la cerere
  • Rezumat de PR : rezumat concis al modificărilor

🔗 Îmbunătățiri Copilot Chat PR

Sesiuni de agent pilotabile din issues și proiecte

23 aprilie — cloud agent este acum pilotabil direct din issues și board-urile de proiect GitHub: indicator de sesiune în antetul issue-ului, panou lateral de progres, sesiuni activate implicit în toate vizualizările proiectelor.

🔗 Sesiuni de agent din issues

Debugging structurat al stack traces pe web

23 aprilie — Copilot Chat pe github.com ghidează acum analiza stack traces în șase pași structurați: ce a eșuat, de ce, cauza rădăcină, dovezile din cod, nivelul de încredere și verificările următoare.

🔗 Debugging stack traces

BYOK VS Code disponibil (GA)

22 aprilie — Bring Your Own Key (aduceți propria cheie API) este în disponibilitate generală pentru utilizatorii Copilot Business și Enterprise în VS Code. Anthropic, Gemini, OpenAI, OpenRouter, Azure sunt suportate, precum și modelele locale via Ollama și Foundry Local. Facturarea este directă prin furnizorul ales, în afara cotelor Copilot.

🔗 BYOK VS Code GA

C++ Language Server în preview public pentru Copilot CLI

22 aprilie — Microsoft C++ Language Server (motorul IntelliSense din Visual Studio/VS Code) este disponibil în preview public pentru Copilot CLI. Oferă date semantice precise (definiții de simboluri, referințe, ierarhii de apeluri, tipuri) în locul căutării grep iterative. Precondiții: autentificare Copilot CLI + compile_commands.json.

🔗 C++ Language Server

Noi înregistrări Business self-serve suspendate

22 aprilie — GitHub suspendă noile înregistrări self-serve pentru Copilot Business pe planurile GitHub Free și GitHub Team. Clienții existenți nu sunt afectați.

🔗 Pauză pentru Business self-serve

Câmp used_copilot_cloud_agent în metricile API

23 aprilie — Ca urmare a rebrandingului „coding agent” → „cloud agent”, API-ul metricilor adaugă câmpul used_copilot_cloud_agent în rapoartele utilizatorilor (1 zi și 28 de zile glisante). Vechiul câmp used_copilot_coding_agent este păstrat până la 1 august 2026.

🔗 Metrici cloud agent


Gemini CLI v0.39.0 și Deep Think pentru toți Ultra

Gemini CLI v0.39.0

23 aprilie — Google publică Gemini CLI v0.39.0, versiune stabilă marcată „Latest”. Punctul forte este noua comandă /memory inbox pentru a revizui și valida skills extrase automat de CLI în timpul sesiunilor de lucru.

FuncționalitateDescriere
/memory inboxRevizuirea skills extrase automat
invoke_subagent unificatInstrument sub-agent refactorizat într-o interfață unică
Formatare compactăLizibilitate mai bună în mod compact
Plan Mode — confirmăriValidare necesară înainte de activarea skills
Pornire albităProces părinte ușor pentru pornire mai rapidă
Migrare JSONL streamingÎnregistrarea sesiunilor chat în JSONL

Scurtături de tastatură adăugate: Ctrl+Backspace pentru ștergere cuvânt cu cuvânt (Windows Terminal), Ctrl+Shift+G.

🔗 Gemini CLI v0.39.0

Deep Think deschis tuturor abonaților Ultra

22 aprilie — Google deschide modul Deep Think (raționament aprofundat, extended thinking) pentru toți abonații Gemini Ultra. Acest mod era anterior în acces limitat; acum este disponibil direct din meniul de instrumente al aplicației Gemini (web și mobile).

🔗 Tweet @GeminiApp


Kimi K2.6 : roi de 300 de subagenți și benchmarks open-weights

Agent Swarm — 300 de subagenți paraleli

23 aprilie — Moonshot AI lansează Kimi K2.6 Agent Swarm : un sistem capabil să implementeze 300 de subagenți în paralel pe 4 000 de etape per execuție, față de 100 de agenți și 1 500 de etape pentru K2.5.

CapacitateK2.5K2.6
Subagenți paraleli100300
Etape per execuție1 5004 000
Tipuri de output-uriText chat100+ fișiere reale, review-uri de 100 000 de cuvinte, seturi de date de 20 000 de linii

Subagenții combină competențe eterogene: cercetare web, analiză de date, codare, redactare lungă și generare vizuală. Disponibil pe kimi.com/agent-swarm.

🔗 Tweet @Kimi_Moonshot

Benchmarks : numărul 1 open-weights

23 aprilie — Kimi K2.6 atinge prima poziție între modelele open-weights pe două benchmarks: - Design Arena : aceeași bandă de performanță ca Claude Opus 4.7

  • MathArena deschis (mod Think) : în fața lui GLM 5.1

🔗 Design Arena


SpaceXAI × Cursor și Grok Imagine

Parteneriat SpaceXAI × Cursor

22 aprilie — SpaceXAI (entitate rezultată din apropierea xAI/SpaceX) și Cursor anunță un parteneriat pentru a crea „cea mai performantă IA de codare și de lucru cu cunoașterea din lume”. SpaceX aduce supercalculatorul Colossus (echivalentul a un milion de H100); Cursor îi acordă dreptul de a achiziționa compania mai târziu în 2026 pentru $60 miliarde sau de a plăti $10 miliarde doar pentru colaborare.

🔗 Tweet @SpaceX

Grok Imagine — Template-uri personalizate partajabile

22 aprilie — Abonații SuperGrok și Premium+ pot acum să creeze template-uri personalizate în Grok Imagine și să le partajeze public.

🔗 Tweet @imagine


NVIDIA × Google Cloud Next

22 aprilie — La Google Cloud Next (Las Vegas), NVIDIA și Google Cloud anunță mai multe avansuri majore în jurul infrastructurii IA agentice.

AnunțDetaliu
Instanțe A5X (Vera Rubin NVL72)Până la 960 000 de GPU-uri Rubin într-un cluster multisite, de 10× mai ieftin per token, de 10× mai mult debit pe megawatt
Gemini pe Google Distributed CloudPreview cu GPU-uri Blackwell și Blackwell Ultra — suveranitatea datelor
Confidential VMs BlackwellPrima ofertă de calcul confidențial (confidential computing) Blackwell în cloud-ul public
Nemotron 3 SuperDisponibil pe Gemini Enterprise Agent Platform
NeMo RL APIÎnvățare prin recompensă (Reinforcement Learning) gestionată la scară mare

🔗 Blog NVIDIA × Google Cloud


Kling AI Video 3.0 — Mod 4K nativ

23 aprilie — Kling AI lansează modul 4K nativ în seria sa Video 3.0. Generarea 4K se face dintr-un singur clic, fără etapă suplimentară de upscaling. Coerența vizuală (personaje, texte, stiluri, iluminări) este asigurată la rezoluție nativă pentru producția high-end. Disponibil și prin fal.ai pentru companii.

Kling AI organizează simultan un 4K Short Film Creative Contest, concurs global care invită creatorii să trimită scurtmetraje realizate cu noul mod.

🔗 Tweet @Kling_ai


ChatGPT pentru Clinicieni și OpenAI Privacy Filter

ChatGPT pentru Clinicieni + HealthBench Professional

22 aprilie — OpenAI lansează ChatGPT for Clinicians, o versiune gratuită pentru profesioniștii din sănătate verificați din Statele Unite (medici, asistente medicale practicieni, asistenți medicali, farmacişti). Serviciul include acces la modelele frontier pentru întrebări clinice complexe, skills pentru fluxuri de lucru repetitive (scrisori de recomandare, autorizări prealabile), cercetare clinică citată în timp real și generarea automată de credite de educație medicală continuă (CME). Procesarea HIPAA este disponibilă opțional prin acord.

OpenAI publică, de asemenea, HealthBench Professional, un benchmark deschis care evaluează IA pe sarcini clinice reale (peste 700 000 de răspunsuri evaluate de medici). GPT-5.4 în ChatGPT for Clinicians depășește medicii umani pe acest benchmark în condiții fără limită de timp și cu acces la web.

🔗 ChatGPT pentru Clinicieni

OpenAI Privacy Filter

22 aprilie — OpenAI publică Privacy Filter, un model open-weight (Apache 2.0) pentru detectarea și mascarea informațiilor personale identificabile (Personally Identifiable Information, PII) în text. Modelul rulează local (nicio dată trimisă către un server), suportă 128K tokens de context și atinge un scor F1 de 97.43% pe benchmark-ul PII-Masking-300k.

CaracteristicăValoare
ArhitecturăClasificator de token-uri bidirecțional (decodare Viterbi constrânsă)
Dimensiune1.5B parametri total, 50M activi
Context128 000 tokens
LicențăApache 2.0 (Hugging Face + GitHub)
F197.43% pe PII-Masking-300k corectat

Categorii de PII acoperite: private_person, private_address, private_email, private_phone, private_url, private_date, account_number, secret (parole și chei API).

🔗 OpenAI Privacy Filter


Perplexity și Cohere

Perplexity integrează Kimi K2.6

23 aprilie — Kimi K2.6 de la Moonshot AI este acum disponibil pentru toți abonații Pro și Max ai Perplexity.

🔗 Tweet @perplexity_ai

Cohere — W4A8 gata de producție în vLLM

22 aprilie — Cohere anunță integrarea inferenței sale W4A8 (cuantizare pe 4 biți pentru weights, 8 biți pentru activations) în vLLM. Rezultate pe GPU Hopper versus W4A16: +58% la timpul până la primul token (Time To First Token) și +45% la timpul per token de ieșire (Time Per Output Token). Integrarea vizează în primul rând modelele MoE Command A la scară mare în producție.

🔗 Blog Cohere W4A8


Pe scurt

Suno numărul 1 în App Store la muzică

21 aprilie — Suno, platforma de generare muzicală IA, ajunge pe primul loc în App Store la categoria muzică. CEO-ul Mikey Shulman anunță: „The future of music is one where everyone enjoys creating.”

🔗 Tweet @suno

Anthropic Economic Index Survey

22 aprilie — Anthropic lansează Anthropic Economic Index Survey, un sondaj lunar realizat prin Anthropic Interviewer pe un eșantion aleatoriu de utilizatori Claude. Obiectivul este colectarea de date calitative despre impactul economic al IA: sarcini delegate, câștiguri de productivitate, evoluția rolurilor. Rezultatele vor alimenta viitoarele rapoarte Anthropic Economic Index.

🔗 Anunț sondaj

Anthropic — Agenți MCP în producție: cifrele

22 aprilie — Un articol tehnic Anthropic documentează beneficiile MCP pentru agenții de producție: SDK-urile MCP depășesc 300 de milioane de descărcări pe lună, căutarea de instrumente (tool search) reduce token-urile de definire a instrumentelor cu 85%, iar apelurile programatice de instrumente (programmatic tool calling) reduc utilizarea de token-uri cu 37% în fluxuri de lucru complexe, multi-etapă.

🔗 Blog MCP agenți de producție

OpenAI — WebSockets în API Responses: câștig de 40% la latență

22 aprilie — Articol retrospectiv OpenAI care explică modul în care modul WebSocket în API Responses reduce latența buclelor de agenți cu 40%. Conexiunea persistentă menține un cache în memorie al stării răspunsurilor anterioare, evitând re-procesarea întregului istoric la fiecare apel. Deja în producție: Codex, Vercel AI SDK, Cline (+39%), Cursor (+30%).

🔗 Articol WebSockets

Perplexity Research — Antrenarea modelelor de căutare augmentată

22 aprilie — Perplexity publică o cercetare despre pipeline-ul său SFT + RL (Supervised Fine-Tuning + Reinforcement Learning) pentru îmbunătățirea calității răspunsurilor de căutare. Rezultatul-cheie: modelele Qwen post-antrenate ating factualitatea modelelor GPT la un cost mai mic.

🔗 Cercetare Perplexity


Ce înseamnă asta

23 aprilie 2026 conturează două tendințe convergente. Pe de o parte, GPT-5.5 confirmă că OpenAI a recâștigat conducerea pe benchmark-urile agentice (Terminal-Bench, ARC-AGI-2, OSWorld) după mai multe luni în care Claude Opus 4.7 domina. Diferența rămâne strânsă pe SWE-Bench Pro, unde Anthropic păstrează avantajul — semn că cele două laboratoare se aliniază asupra acelorași cazuri de utilizare prioritare.

Pe de altă parte, ziua marchează intrarea în era agenților persistenți cu memorie: OpenAI Workspace Agents, Anthropic Managed Agents Memory și Kimi K2.6 Agent Swarm sosesc simultan cu abordări diferite (integrare Slack, filesystem-based, roi de subagenți), dar cu același obiectiv — ca agentul să își amintească, să învețe și să acționeze fără supraveghere constantă. Cifrele Rakuten (-97% erori, -27% cost) oferă o primă măsură industrială a impactului.

GitHub Copilot continuă strategia de integrare profundă în GitHub.com (PR chat, sesiuni de agenți din issues, stack traces structurate) în timp ce se deschide spre exterior prin BYOK. BYOK VS Code GA semnalează că Copilot se poziționează atât ca interfață, cât și ca model.


Surse

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5.4-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator