Pesquisar

DeepSeek-V4 e GPT-5.5 invadem os IDE, Cohere funde-se com Aleph Alpha, Claude Code v2.1.119

DeepSeek-V4 e GPT-5.5 invadem os IDE, Cohere funde-se com Aleph Alpha, Claude Code v2.1.119

Em 25 de abril de 2026 concentram-se anúncios importantes sobre modelos de fronteira e ferramentas para programadores. DeepSeek-V4 é lançado em open-source e fica disponível gratuitamente no NVIDIA Blackwell. GPT-5.5 entra em disponibilidade geral no GitHub Copilot e na API OpenAI. A fusão Cohere + Aleph Alpha, apoiada por 600 milhões de dólares do Schwarz Group, assenta as bases da IA soberana transatlântica. Do lado das ferramentas, Claude Code v2.1.119 e o modo Auto-review do Codex alargam a autonomia dos agentes de desenvolvimento.


DeepSeek-V4 disponível em todo o lado

Lançamento e open-source

24 de abril — A DeepSeek anuncia simultaneamente DeepSeek-V4-Pro e DeepSeek-V4-Flash. V4-Pro é um modelo mixture-of-experts com 1,6 biliões de parâmetros (49 mil milhões ativos), com uma janela de contexto de um milhão de tokens e desempenhos anunciados comparáveis aos melhores modelos fechados. V4-Flash, mais compacto (284B/13B ativos), visa casos de uso de baixa latência. Os dois modelos são open-source desde o primeiro dia, com API e demo disponíveis imediatamente, e o relatório técnico publicado no Hugging Face.

🔗 Anúncio DeepSeek-V4

Promoção da API e integrações

25 de abril — A DeepSeek anuncia uma promoção de -75 % na API V4-Pro até 5 de maio de 2026 (15h59 UTC). As integrações Claude Code, OpenCode e OpenClaw foram atualizadas para suportar o novo modelo.

🔗 Promoção da API DeepSeek-V4-Pro

DeepSeek-V4-Pro no NVIDIA Blackwell, gratuitamente

24 de abril — A NVIDIA torna o DeepSeek-V4-Pro acessível gratuitamente através da interface NVIDIA NIM API no Blackwell, em build.nvidia.com. O anúncio gerou 160 000 visualizações. A NVIDIA publica também as primeiras curvas de desempenho (Pareto frontier) do DeepSeek-V4-Pro no Blackwell Ultra com vLLM — um ponto de referência inicial para implantações de alto desempenho.

25 de abril — A NVIDIA sublinha em paralelo os limites da inferência clássica para os agentes de desenvolvimento: “Traditional inference wasn’t built for agentic coding”, em referência às centenas de chamadas API que as ferramentas agenticas modernas geram.

🔗 DeepSeek-V4-Pro no NVIDIA NIM 🔗 Blackwell Ultra Dia 0


GPT-5.5 sai da antevisão

Disponibilidade geral no GitHub Copilot

24 de abril — GPT-5.5 é lançado gradualmente no GitHub Copilot para os planos Pro+, Business e Enterprise. A disponibilidade cobre VS Code, Visual Studio, a CLI Copilot, o agente cloud, github.com, a aplicação móvel (iOS e Android), os IDE JetBrains, Xcode e Eclipse. O multiplicador promocional está fixado em 7,5×. Os administradores Enterprise e Business têm de ativar a política nas definições para beneficiar.

🔗 Changelog GitHub Copilot — GPT-5.5 GA

Acesso à API para programadores

24 de abril — No dia seguinte ao lançamento para o público, a OpenAI abre o acesso a GPT-5.5 na API. O modelo está disponível através da API Responses e da API Chat Completions, com uma janela de contexto de um milhão de tokens. A variante GPT-5.5-Pro, para trabalhos de alta precisão, é acessível apenas através da API Responses.

“GPT-5.5 is available in the Responses and Chat Completions APIs with a 1M context window. GPT-5.5-pro is also available in the Responses API for higher-accuracy work.”

🇵🇹 “GPT-5.5 está disponível nas APIs Responses e Chat Completions com uma janela de contexto de um milhão de tokens. GPT-5.5-Pro também está disponível na API Responses para trabalhos de alta precisão.”@OpenAIDevs

🔗 Anúncio da API OpenAI

GPT-5.5 no Perplexity Max e no Personal Computer

24 de abril — GPT-5.5 fica acessível aos subscritores Max no Perplexity e é lançado como modelo de orquestração predefinido no Personal Computer para os planos Pro e Max.

🔗 Anúncio Perplexity

Bio Bug Bounty — programa de segurança em biossegurança

23 de abril — A OpenAI abre um programa de recompensa por bugs dedicado à biossegurança do GPT-5.5. Investigadores especializados em segurança de IA ou biossegurança são convidados a encontrar um jailbreak universal que contorne as salvaguardas biológicas do modelo. A recompensa principal é de 25 000 USD para o primeiro sucesso. As candidaturas estão abertas até 22 de junho de 2026; os testes decorrerão de 28 de abril a 27 de julho de 2026, exclusivamente no GPT-5.5 no Codex Desktop, por convite com acordo de confidencialidade.

🔗 GPT-5.5 Bio Bug Bounty


Ferramentas para programadores: autonomia em expansão

Claude Code v2.1.119

25 de abril — A Anthropic publica Claude Code v2.1.119, uma atualização substancial da CLI com mais de quarenta alterações.

DomaineChangement
Config/config persistant dans ~/.claude/settings.json
PR--from-pr supporte GitLab, Bitbucket, GitHub Enterprise
HooksPostToolUse + champ duration_ms
PowerShellAuto-approbation en mode permission
MCPConnexion serveurs subagent en parallèle
Bugs corrigidos40+

A persistência dos parâmetros /config é a alteração mais visível: as preferências de tema, modo editor ou nível verbose sobrevivem aos reinícios. O parâmetro --from-pr aceita agora URLs de merge-request do GitLab, pull-request do Bitbucket e do GitHub Enterprise, o que alarga o fluxo de trabalho a equipas que não usam GitHub.com. Os hooks PostToolUse e PostToolUseFailure recebem agora o campo duration_ms, útil para a monitorização em CI/CD. A ligação dos servidores MCP faz-se agora em paralelo, reduzindo os tempos de arranque dos fluxos de trabalho multi-servidor.

🔗 CHANGELOG Claude Code

Codex Auto-review — autonomia prolongada com rede de segurança

24 de abril — A OpenAI anuncia Auto-review, um novo modo de execução para o Codex. Este modo permite ao Codex avançar em tarefas longas sem pedir aprovação a cada etapa. Um agente distinto avalia as etapas de alto risco antes da sua execução, o que permite simplificar os fluxos de trabalho de testes, compilações e automações longas sem sacrificar a segurança.

🔗 Codex Auto-review

Copilot para JetBrains: Inline Agent Mode em pré-visualização

24 de abril — A atualização do plugin Copilot para JetBrains IDE traz várias funcionalidades: o modo agent inline em pré-visualização pública (atalho Shift+Ctrl+I ou Shift+Cmd+I), as Next Edit Suggestions (NES) melhoradas com antevisões em filigrana e alterações remotas, e a auto-approbation global para as chamadas de ferramentas agent.

🔗 Changelog JetBrains Copilot

NVIDIA Dynamo — a inferência repensada para os agentes

25 de abril — A NVIDIA apresenta Dynamo, uma reformulação da stack de inferência para responder aos perfis de carga das ferramentas agenticas. Agentes como Claude Code, Codex ou Copilot encadeiam centenas de chamadas API por sessão com contexto recomposto em cada etapa, criando estrangulamentos que aumentam o custo por token. Dynamo combina quatro componentes: routing sensível à cache KV, scheduling pensado para os agentes, cache multi-nível e orquestração unificada. A NVIDIA anuncia até 7× de débito adicional com taxas de cache mais elevadas e menor latência.

🔗 NVIDIA Dynamo — inferência agentica


Soberania e parcerias enterprise

Cohere + Aleph Alpha: fusão transatlântica com 600 milhões USD do Schwarz Group

24 de abril — Cohere (Canadá) e Aleph Alpha (Alemanha) anunciam o seu projeto de fusão. O Schwarz Group — o grupo proprietário da Lidl e da Kaufland — investe 600 milhões USD (cerca de 500 milhões de euros) em financiamento estruturado para a Series E da Cohere. A plataforma combinada será alojada no STACKIT, o cloud soberano da Schwarz Digits.

“Sovereign AI for the world. Cohere & Aleph Alpha form transatlantic AI powerhouse anchored in Canada & Germany!”

🇵🇹 “IA soberana para o mundo. Cohere e Aleph Alpha formam uma potência transatlântica de IA enraizada no Canadá e na Alemanha!”@cohere no X

O acordo visa os setores regulados, os governos e um mercado de IA soberana estimado em cerca de 600 mil milhões USD. Fica ainda condicionado à aprovação dos acionistas da Aleph Alpha.

Anthropic e NEC: primeira parceria global japonesa

24 de abril — A Anthropic anuncia uma parceria estratégica com a NEC Corporation, que se torna o primeiro parceiro global japonês da Anthropic. A NEC irá implementar Claude junto de cerca de 30 000 colaboradores do grupo em todo o mundo.

AspectoDetalhe
Empregados abrangidos~30 000 (NEC Group mundial)
Produtos implementadosClaude, Claude Opus 4.7, Claude Code, Claude Cowork
Setores-alvoFinanças, manufacturing, cibersegurança, governo local
ProgramaNEC BluStellar Scenario

Internamente, a NEC cria um Centro de Excelência para formar uma equipa de engenharia de IA em grande escala, no âmbito da iniciativa “Client Zero”. Para os seus clientes, a NEC e a Anthropic desenvolverão em conjunto soluções para os setores da finança, do manufacturing e das autarquias japonesas.

🔗 Anthropic e NEC

Meta associa-se à AWS para IA agentica para milhares de milhões de utilizadores

24 de abril — A Meta anuncia um acordo com a AWS para integrar dezenas de milhões de núcleos Graviton5 na sua infraestrutura. O objetivo é suportar as workloads de CPU intensivas da IA agentica destinada a milhares de milhões de utilizadores.

🔗 Meta × AWS Graviton5


Gemini: atualizações de produto e investigação

Gemini Drops abril 2026 — Lyria 3 Pro, Gemini Live v3.1

24 de abril — A Google publica a 10.ª edição dos Gemini Drops. Lyria 3 Pro permite criar músicas com até 3 minutos diretamente no Gemini, acessível aos subscritores Plus, Pro e Ultra. Gemini Live v3.1 é 20 % mais rápido e oferece o dobro do contexto memorizado. Personal Intelligence expande-se internacionalmente (fora do Espaço Económico Europeu, Suíça, Reino Unido, Coreia do Sul, Austrália e Nigéria). A funcionalidade de conversação em ramificações (branching) é lançada para 20 % dos utilizadores.

🔗 Gemini Drops abril 2026

Gemini Embedding 2 em disponibilidade geral

22 de abril — Gemini Embedding 2 passa para disponibilidade geral (GA) na API Gemini e no Vertex AI. O modelo de representação vetorial visa a pesquisa semântica, a geração aumentada por recuperação (RAG) e a classificação.

🔗 Gemini Embedding 2 GA

Decoupled DiLoCo — treino distribuído multirregional

23 de abril — Google DeepMind publica Decoupled DiLoCo, um método de treino distribuído em redes de baixa largura de banda. Gemma 12B foi treinado em 4 regiões dos EUA com uma mistura de TPU6e e TPUv5p. O método abre caminho para um treino de modelos descentralizado à escala global, sem exigir as interligações de alta velocidade normalmente necessárias.

🔗 Decoupled DiLoCo — Google DeepMind


Modelos alternativos: Qwen e Grok

Qwen3.6-27B — modelo denso flagship para coding agentico

22 de abril — A Alibaba publica Qwen3.6-27B, um modelo denso de 27 mil milhões de parâmetros em open source sob licença Apache 2.0. Apesar do seu tamanho compacto, supera Qwen3.5-397B-A17B — um modelo MoE de 397 mil milhões de parâmetros com 17 mil milhões ativados — nos principais benchmarks de coding agentico, com uma pontuação SWE-Bench Verified de 77,2 % contra 76,2 % para o seu predecessor. Três eixos são destacados no anúncio: agentic coding que supera a geração antiga em todos os principais benchmarks, raciocínio sólido em texto e multimodal, e implementação densa sem a complexidade MoE.

O modelo suporta os modos thinking e non-thinking num único checkpoint. Está disponível no Hugging Face (Qwen/Qwen3.6-27B, variante FP8 incluída) e no ModelScope, com um blog técnico e um Github dedicados. O anúncio gerou 3,5 milhões de visualizações no X.

🔗 Anúncio Qwen3.6-27B

Qwen-Image-2.0-Pro — #9 mundial Text-to-Image

25 de abril — A Alibaba Qwen publica Qwen-Image-2.0-Pro, que atinge o 9.º lugar mundial no ranking Text-to-Image Arena e o 6.º lugar em retrato. O modelo está disponível através da API Alibaba Cloud e do ModelScope.

🔗 Qwen-Image-2.0-Pro

Grok Voice Think Fast 1.0 — #1 Tau Voice Bench

23 de abril — A xAI lança o modelo grok-voice-think-fast-1.0 através da API xAI Console. O modelo reclama o primeiro lugar no Tau Voice Bench, com raciocínio integrado sem latência adicional. Já está implementado em produção na Starlink para apoio ao cliente. A arquitetura é unificada, distinta das APIs Grok STT/TTS anunciadas em abril.

🔗 Grok Voice Think Fast 1.0

Grok Imagine — melhoria da sincronização labial

25 de abril — O Grok Imagine anuncia uma melhoria da sincronização labial (lip sync) e da qualidade áudio para todas as gerações image-to-video.

🔗 Grok Imagine lip sync


Geração de média e agentes vocais

Kling AI 4K — upscaling nativo a partir de baixa resolução

24 de abril — A Kling AI lança Kling 4K, uma funcionalidade de ampliação de imagem em 4K nativo a partir de fontes de baixa resolução. O anúncio resumido em “Blurry in. 4K out.” gerou 5,82 milhões de visualizações. Esta funcionalidade é distinta de Kling Video 3.0.

🔗 Kling AI 4K

Runway integra GPT Image 2

24 de abril — A Runway integra GPT Image 2 da OpenAI na sua plataforma de criação de vídeo.

🔗 Runway × GPT Image 2

ElevenLabs × Customers Bank — agentes vocais bancários

24 de abril — A ElevenLabs anuncia uma implementação de ElevenAgents na Customers Bank (25 mil milhões USD de ativos). Três agentes são implantados: suporte ao cliente 24 horas por dia, recepção de novos clientes e coaching em tempo real para os assessores.

🔗 ElevenLabs × Customers Bank

ElevenLabs — Programa Embaixador

23 de abril — A ElevenLabs abre as candidaturas para o seu programa embaixador, que reúne dois níveis: Community Builders e Embaixadores, com créditos, brindes e acesso antecipado às novas funcionalidades. O anúncio gerou 116 000 visualizações.

🔗 Programa Embaixador da ElevenLabs


Pesquisa Anthropic: segurança e agentes

Medidas de proteção eleitoral — resultados das avaliações

24 de abril — À medida que se aproximam as eleições de meio de mandato americanas de 2026, a Anthropic publica um balanço das suas medidas de proteção eleitoral. Claude Opus 4.7 e Sonnet 4.6 obtêm respetivamente 95 % e 96 % nas avaliações que medem o equilíbrio das respostas políticas.

ModeloConformidade políticaRecusa de operações de influênciaPesquisa na web ativada
Opus 4.7100 %94 %92 %
Sonnet 4.699,8 %90 %95 %

Um banner TurboVote (recurso não partidário da Democracy Works) será exibido em Claude.ai para orientar os utilizadores para informações fiáveis sobre a votação nas eleições de meio de mandato de 2026.

🔗 Atualização das medidas de proteção eleitoral — Anthropic

Project Deal — agentes Claude como negociadores

24 de abril — A Anthropic publica os resultados do Project Deal, uma experimentação interna sobre agentes de IA num mercado do tipo Craigslist. Durante uma semana, agentes Claude representavam os funcionários do escritório de São Francisco para comprar e vender objetos entre colegas. No total, 186 deals foram concluídos com quatro configurações de modelos em paralelo.

MétricaValor
Duração1 semana
Configurações4 (tudo-Opus 4.7, tudo-Haiku, 2 misturas)
Deals concluídos186
Vantagem Opus vs Haiku+2 deals em média, preços superiores
Efeito de instruções agressivasNão significativo estatisticamente

“New Anthropic research: Project Deal. We created a marketplace for employees in our San Francisco office—like Craigslist—where Claude agents negotiated deals on their behalf.”

🇵🇹 “Nova pesquisa Anthropic: Project Deal. Criámos um marketplace para os funcionários do nosso escritório de São Francisco — como o Craigslist — onde agentes Claude negociavam deals em seu nome.”@AnthropicAI no X

A descoberta mais notável: as instruções agressivas (“negocia com firmeza”) não tiveram qualquer efeito estatisticamente significativo nos resultados — não por falta de cumprimento das instruções, mas devido às restrições próprias do mercado.

🔗 Project Deal — Anthropic


O que isso significa

O dia 25 de abril ilustra uma consolidação rápida em torno de algumas grandes tendências. Nos modelos de fronteira, DeepSeek-V4 e GPT-5.5 estabelecem um novo patamar mínimo para as capacidades acessíveis livremente: um milhão de tokens de contexto já não é um diferenciador premium. A chegada do DeepSeek-V4-Pro gratuitamente no NVIDIA Blackwell, juntamente com a promoção da API de -75 %, sinaliza uma competição tarifária direta com os modelos fechados.

Do lado das ferramentas para developers, a expansão da autonomia agêntica concretiza-se em várias frentes em simultâneo — Claude Code v2.1.119, Codex Auto-review, Inline Agent Mode no JetBrains. Estas atualizações convergem para o mesmo objetivo: reduzir as interrupções humanas em pipelines longos, mantendo ao mesmo tempo pontos de controlo para operações de risco. A questão do enquadramento legal para os agentes que agem em nosso nome, levantada por Project Deal, ganha uma ressonância particular neste contexto.

A fusão Cohere + Aleph Alpha com 600 milhões USD da Schwarz Group é o sinal mais estruturante para a IA soberana europeia. Ela cria um ator transatlântico posicionado sobre governos e setores regulados, com uma infraestrutura cloud dedicada (STACKIT), num mercado estimado em 600 mil milhões USD. A parceria Anthropic + NEC, em paralelo, mostra que a mesma lógica de soberania se estende à Ásia.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator