Pesquisar

ChatGPT Images 2.0 com thinking, Gemini Deep Research Max, NVIDIA x Adobe x WPP

ChatGPT Images 2.0 com thinking, Gemini Deep Research Max, NVIDIA x Adobe x WPP

Em 21 de abril de 2026, três grandes anúncios dominam a atualidade de IA: a OpenAI lança o ChatGPT Images 2.0 com o seu primeiro modelo de imagem capaz de raciocinar, a Google DeepMind apresenta dois agentes de pesquisa autónomos alimentados por Gemini 3.1 Pro, e a NVIDIA consolida uma parceria tripartida com a Adobe e a WPP em torno de agentes criativos para marketing empresarial. Claude Code, Codex e Git 2.54 completam um dia rico em atualizações de ferramentas.


ChatGPT Images 2.0 e gpt-image-2

21 de abril — A OpenAI lança ChatGPT Images 2.0, disponível imediatamente para todos os utilizadores do ChatGPT e do Codex. O modelo subjacente, gpt-image-2, está simultaneamente disponível via API.

Esta nova versão marca uma rutura em relação à geração anterior: o seguimento de instruções detalhadas (instruction following) é significativamente melhorado, o posicionamento e a relação precisa entre objetos são mais fiáveis, a renderização de texto denso foi revista e vários formatos (retrato, paisagem, quadrado) são suportados nativamente.

O modo de reflexão (thinking) é a principal novidade. O ChatGPT Images 2.0 é o primeiro modelo de imagem da OpenAI dotado de capacidades de raciocínio. No modo thinking, disponível para subscritores Plus, Pro e Business (Enterprise em breve), o modelo pode:

  • Pesquisar a web em tempo real para informações atualizadas
  • Gerar várias imagens distintas a partir de um único prompt
  • Autoverificar e corrigir os seus próprios resultados

As equipas de pesquisa da OpenAI detalharam os casos de utilização num thread: renderização multilingue e texto preciso, diapositivos e infografias profissionais, múltiplos formatos e resoluções, seguimento de instruções complexas.

FuncionalidadeDisponibilidade
ChatGPT Images 2.0 (standard)Todos os utilizadores ChatGPT e Codex
Modo thinkingChatGPT Plus, Pro, Business (Enterprise em breve)
API gpt-image-2Disponível desde já

A linha orientadora da OpenAI para este lançamento: o modelo “passa da geração de imagens para o design estratégico, de uma ferramenta para um sistema visual.”

🔗 Apresentando o ChatGPT Images 2.0 🔗 Tweet @OpenAI


Google Deep Research e Deep Research Max

21 de abril — A Google DeepMind lança dois agentes de pesquisa autónomos alimentados por Gemini 3.1 Pro: Deep Research e Deep Research Max.

Estes agentes navegam tanto na web aberta como em dados personalizados — documentos internos, informação financeira especializada — para produzir relatórios profissionais totalmente citados.

Deep Research é otimizado para velocidade e baixa latência, ideal para interfaces que necessitam de respostas rápidas. Deep Research Max explora um tempo de cálculo alargado (extended test-time compute) para raciocinar de forma iterativa, refinar as pesquisas e produzir um relatório de alta qualidade — concebido para processamento assíncrono em segundo plano.

FuncionalidadeDetalhe
Suporte MCPLigação segura a fontes proprietárias ou de terceiros
Geração nativa de visuaisPrimeiro agente a gerar gráficos e infografias (HTML ou Nano Banana 2)
Planeamento colaborativoO utilizador pode refinar o plano de pesquisa antes da execução
MultimodalidadePDFs, CSVs, imagens, áudio, vídeo aceites como entrada
DisponibilidadeAPI Gemini, parceiros pagos, pré-visualização pública

A geração nativa de visuais é notável: o Deep Research Max pode produzir gráficos e infografias diretamente nos seus relatórios, em HTML ou via Nano Banana 2, sem ferramenta externa. As startups e empresas do Google Cloud beneficiarão de uma disponibilidade a ser anunciada em breve.

🔗 Anúncio @GoogleDeepMind 🔗 Artigo blog.google


NVIDIA × Adobe × WPP — Agentes criativos para marketing empresarial

20 de abril — A NVIDIA expande as suas colaborações estratégicas com Adobe e WPP para implementar agentes de IA autónomos nas operações de marketing empresarial. O anúncio é acompanhado por uma demonstração ao vivo no Adobe Summit a 21 de abril, com Jensen Huang (CEO da NVIDIA) e Shantanu Narayen (CEO da Adobe).

A nova solução Adobe CX Enterprise Coworker é orquestrada por agentes de IA baseados em:

  • NVIDIA OpenShell: ambiente de execução seguro, observável e auditável para workflows agenticos
  • NVIDIA Agent Toolkit e modelos open-source Nemotron
  • Adobe Firefly Foundry acelerado por infraestrutura NVIDIA AI

Na prática, um retalhista global pode agora gerar milhões de combinações produto/audiência/canal em poucos minutos em vez de meses. Os gémeos digitais 3D (Omniverse + OpenUSD) servem como identidades de produto persistentes para automatizar a produção de conteúdo de alta fidelidade em grande escala.

🔗 Artigo blogs.nvidia.com 🔗 Tweet @NVIDIAAI


Claude Code v2.1.116

19–21 de abril — Claude Code v2.1.116 traz uma série de melhorias focadas no desempenho, na fiabilidade e na experiência no terminal.

A atualização mais tangível: o comando /resume é até 67 % mais rápido em sessões grandes (40 Mo+), com melhor gestão de entradas “dead-fork”. O arranque MCP também é mais rápido com vários servidores stdio configurados.

Experiência do utilizador:

  • O indicador de reflexão mostra agora a progressão em linha (“still thinking”, “thinking more”, “almost done thinking”), substituindo a linha de dica separada
  • /config pode pesquisar por valor de opção (ex.: procurar “vim” encontra o parâmetro Editor mode)
  • /doctor pode ser aberto enquanto o Claude responde, sem esperar pelo fim da vez

Segurança: o sandbox auto-allow já não contorna a verificação de caminhos perigosos para rm/rmdir direcionando /, $HOME ou outros diretórios de sistema críticos.

8 correções de terminal incluem: protocolo de teclado Kitty (Ctrl+-, Cmd+Esquerda/Direita), renderização de scripts Devanagari, bloqueio de Ctrl+Z através de processo wrapper, duplicação de scrollback em modo inline e várias correções VS Code/Warp/Ghostty.

CategoriaMudança principal
Desempenho/resume 67 % mais rápido em sessões de 40 Mo+
UXSpinner thinking progressivo, /config por valor
SegurançaSandbox respeita a proteção dos caminhos críticos
Terminais8 correções (Kitty, VS Code, Warp, Ghostty, WezTerm)
PluginsAuto-instalação das dependências em falta

🔗 CHANGELOG Claude Code


Live Artifacts no Claude Cowork

20 de abril — A Anthropic lança os “Live Artifacts” no Claude Cowork: painéis e trackers dinâmicos diretamente ligados às aplicações e ficheiros do utilizador.

Ao contrário dos artefactos clássicos (estáticos), os Live Artifacts são atualizados automaticamente ao abrir com os dados atuais. São guardados num novo separador dedicado com histórico de versões, acessível a partir de qualquer sessão.

“In Cowork, Claude can now build live artifacts: dashboards and trackers connected to your apps and files. Open one any time and it refreshes with current data.”

🇵🇹 “No Cowork, o Claude pode agora criar artefactos dinâmicos: painéis e trackers ligados às suas aplicações e ficheiros. Abra um a qualquer momento e ele atualiza-se com os dados atuais.”@claudeai no X

A funcionalidade está disponível em todos os planos pagos através de uma atualização da app Claude.

🔗 Anúncio @claudeai


Codex nas empresas: Codex Labs e 7 parceiros integradores

21 de abril — A OpenAI dá um novo passo na implementação enterprise do Codex: 4 milhões de programadores utilizam-no todas as semanas (contra 3 milhões no início de abril, ou seja, +33 % em duas semanas), e lança simultaneamente Codex Labs bem como um programa de parcerias com 7 integradores globais.

Codex Labs leva especialistas da OpenAI diretamente às organizações para workshops práticos e sessões de trabalho, com o objetivo de ajudar as equipas a passar de uma utilização experimental para uma implementação reprodutível.

Os 7 parceiros integradores (GSI): Accenture, Capgemini, CGI, Cognizant, Infosys, PwC e Tata Consultancy Services.

EmpresaUso do Codex
Virgin AtlanticCobertura de testes, redução da dívida técnica
RampAceleração das revisões de código (code review)
NotionDesenvolvimento rápido de novas funcionalidades
CiscoCompreensão de grandes repositórios interligados
RakutenResposta a incidentes (incident response)

O Codex estende-se agora para além do desenvolvimento de software: navegação no browser, geração de imagens, memória, orquestração de tarefas transversais.

🔗 Escalar o Codex para empresas em todo o mundo


Nano Banana Pro no Google AI Studio

20 de abril — Os subscritores Google AI Pro e Ultra beneficiam agora de acesso alargado ao Google AI Studio sem chave API necessária: acesso ao Nano Banana Pro e aos modelos Gemini Pro com limites de utilização aumentados.

Basta iniciar sessão com a conta de subscritor para passar do protótipo para a produção. Esta evolução posiciona a subscrição Google AI como uma ponte prática para programadores que desejam experimentar sem a complexidade da faturação por pedido.

🔗 Anúncio @GoogleAI 🔗 Artigo blog.google


Kimi FlashKDA open-source

21 de abril — A Moonshot AI publica em open-source FlashKDA, a sua implementação CUTLASS de alto desempenho dos kernels Kimi Delta Attention (KDA).

MétricaValor
Speedup préfill vs baseline1,72× a 2,22× no H20
IntegraçãoBackend drop-in para flash-linear-attention
RequisitosSM90+, CUDA 12.9+, PyTorch 2.4+

FlashKDA funciona como um backend intercambiável (drop-in) para flash-linear-attention. A integração está disponível via a PR fla-org/flash-linear-attention#852.

🔗 Repo GitHub FlashKDA 🔗 Tweet @Kimi_Moonshot


Git 2.54

20 de abril — O Git 2.54 está disponível com três evoluções estruturais.

git history (experimental) — Nova subcomando para reescrever o histórico sem passar por git rebase -i:

  • git history reword <commit> : modificar a mensagem de um commit e reescrever os branches in place
  • git history split <commit> : dividir um commit em dois de forma interativa

Config-based hooks — Os hooks podem agora ser definidos nos ficheiros de configuração do Git, e não apenas em .git/hooks. Isto permite a partilha entre vários repositórios via ~/.gitconfig, vários hooks para o mesmo evento e a desativação individual via hook.<name>.enabled = false.

Geometric repacking por defeitogit maintenance utiliza agora a estratégia geométrica por defeito, melhorando o desempenho sem configuração adicional.

🔗 Destaques do Git 2.54 🔗 Tweet @github


Genspark Build em pré-visualização pública

21 de abril — A Genspark lança Genspark Build em pré-visualização pública (public preview): uma ferramenta de criação de aplicações e sites web alimentada por Claude Opus 4.7, cobrindo todo o processo da ideia à maquete, design, protótipo e código funcional.

Os utilizadores Plus e Pro beneficiam de 3 dias de acesso sem créditos de 21 a 24 de abril (9h PT). A Genspark especifica que lança “rough edges and all” — a ferramenta está em construção ativa.

No mesmo dia, a Genspark integra também Lyria 3 Music no seu AI Music Agent e Gemini 3.1 Flash TTS no seu AI Audio Agent.

🔗 Tweet Genspark Build 🔗 Tweet Lyria 3 + TTS


Cohere — Pesquisa sobre a descodificação especulativa para modelos MoE

21 de abril — A Cohere publica um artigo de pesquisa técnica sobre a otimização de modelos de mistura de especialistas (Mixture-of-Experts, MoE) com descodificação especulativa (speculative decoding).

A equipa valida nos seus modelos MoE em produção — incluindo Command A (111 mil milhões de parâmetros) — uma curva de ganho não monotónica consoante o tamanho do lote: os ganhos aumentam primeiro antes de diminuírem. Dois mecanismos-chave são identificados: a correlação temporal no encaminhamento de especialistas reduz em 20 a 31 % o número de especialistas únicos a carregar na memória, e um amortecimento dos custos fixos explica os ganhos elevados em BS=1.

🔗 Artigo Cohere


Genspark Claw: Kimi K2.6 logo no primeiro dia

21 de abril — A Genspark integra Kimi K2.6 na sua ferramenta Claw logo no dia do lançamento (Day 0), através de uma parceria com a Fireworks AI que acompanhou as fases de pré-lançamento e de teste.

🔗 Tweet @genspark_ai


Anthropic STEM Fellows Program

21 de abril — A Anthropic lança o programa STEM Fellows, dirigido a especialistas em ciência e engenharia para trabalharem ao lado das equipas de pesquisa em projetos de alguns meses, sediados em São Francisco.

🔗 Anúncio @AnthropicAI


O que isto significa

21 de abril marca uma convergência entre raciocínio e geração multimodal. gpt-image-2 ilustra uma tendência clara: os modelos generativos integram o raciocínio como camada de orquestração, não apenas como melhoria de qualidade. O resultado é um modelo capaz de pesquisar, gerar, verificar e corrigir na mesma sessão.

O Deep Research Max empurra a mesma lógica do lado da pesquisa: com suporte MCP, o agente pode aceder a dados proprietários estruturados, o que abre caminho a workflows analíticos autónomos sem exportar dados sensíveis para serviços de terceiros.

A parceria NVIDIA × Adobe × WPP sinaliza que a adoção enterprise da IA criativa sai da fase piloto. OpenShell como runtime auditável responde a uma verdadeira restrição das grandes organizações: os agentes autónomos têm de poder ser observados e rastreados, e não apenas ser performantes.

Do lado das ferramentas, os config-based hooks do Git 2.54 são uma evolução arquitetónica discreta mas importante: os hooks partilhados entre repositórios via ~/.gitconfig vão mudar as práticas das equipas para a padronização dos workflows CI locais.


Sources - Introduzindo o ChatGPT Images 2.0

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator