Pesquisar

OpenAI levanta 122 bilhões de dólares, Qwen3.5-Omni e 15 funcionalidades ocultas do Claude Code

OpenAI levanta 122 bilhões de dólares, Qwen3.5-Omni e 15 funcionalidades ocultas do Claude Code

Três anúncios dominam o fim do mês: OpenAI fecha a maior captação privada da história da tech com 122 bilhões de dólares a uma avaliação de 852 bilhões, Qwen atinge um marco com um modelo omnimodal nativo capaz de ver, ouvir e codificar simultaneamente, e o responsável pelo Claude Code publica um thread viral revelando 15 funcionalidades pouco documentadas da ferramenta. A semana também é marcada pelo lançamento do Secure Intelligence Institute da Perplexity, novas ferramentas GitHub Copilot e iniciativas de infraestrutura na Runway e NVIDIA.


OpenAI levanta 122 bilhões de dólares

31 de março — OpenAI anuncia o fechamento de sua última rodada de financiamento com 122 bilhões de dólares de capital comprometido, para uma avaliação post-money de 852 bilhões de dólares. É uma das maiores rodadas privadas da história da tecnologia.

A rodada é co-liderada pela SoftBank e a16z, com participação estratégica da Amazon, NVIDIA e Microsoft. Pela primeira vez, a OpenAI ampliou a participação a investidores individuais via bancos, levantando mais de 3 bilhões de dólares de pessoas físicas. A ARK Invest também integrará a OpenAI em vários fundos indiciais cotados (Exchange-Traded Funds / ETF).

Apoiada por essa captação, a OpenAI publica métricas de crescimento:

IndicadorValor
Utilizadores ativos semanais do ChatGPT900 milhões
Assinantes pagos do ChatGPT50 milhões
Receitas mensais2 bilhões de dólares
Tokens processados pela API (por minuto)15 bilhões
Utilizadores semanais do Codex2 milhões (+5× em 3 meses)
Crescimento mensal do Codex+70%

A empresa descreve um roadmap articulado em torno de uma “IA superapp” (AI superapp): uma interface unificada reunindo ChatGPT, Codex, pesquisa web e agentes IA. O objetivo declarado é ultrapassar um bilhão de utilizadores ativos semanais. As empresas já representam 40% das receitas.

GPT-5.4, o modelo mais recente da OpenAI, é descrito como trazendo ganhos em raciocínio, em codificação e em fluxos de trabalho agenticos (agentic workflows). O crescimento da OpenAI é apresentado como 4 vezes mais rápido que o do Google e do Meta em estágio equivalente.

🔗 Anúncio oficial OpenAI


Qwen3.5-Omni: modelo omnimodal nativo

29 de março — Alibaba Qwen lança o Qwen3.5-Omni, um modelo concebido nativamente para processar texto, imagens, áudio e vídeo em um único modelo unificado. Ao contrário das abordagens multimodais clássicas que acrescentam modalidades em camadas, este modelo processa essas entradas simultaneamente.

As capacidades brutas são significativas: até 10 horas de áudio ou 400 segundos de vídeo 720p nativamente, treinado em mais de 100 milhões de horas de dados, reconhecimento de fala em 113 idiomas e expressão em 36 idiomas.

Funcionalidade principal: Audio-Visual Vibe Coding

A funcionalidade mais diretamente utilizável é o “Audio-Visual Vibe Coding”: o utilizador descreve seu projeto em voz alta diante de uma câmara, e o Qwen3.5-Omni-Plus gera um site ou um jogo funcional. É uma aplicação do conceito de codificação por intenção (vibe coding) estendida ao áudio e ao vídeo em tempo real.

Desempenho comparado

CategoriaQwen3.5-Omni-PlusGemini 3.1 Pro
DailyOmni (áudio/visão)84,682,7
WorldScene62,865,5
QualocommInteractive68,552,3
OmniClear64,855,5
IFEval (texto)89,793,5
MMLU-Redux94,290,0

O modelo supera o Gemini 3.1 Pro em benchmarks de áudio e é equivalente na compreensão áudio-visual.

Capacidades vocais

  • Controlo vocal fino: ajuste de emoção, ritmo e volume em tempo real
  • Clonagem de voz (Voice Cloning) a partir de uma amostra curta (implantação de engenharia anunciada em breve)
  • Turno de fala inteligente (Semantic Interruption) que compreende a intenção real e ignora o ruído ambiente
  • Pesquisa web integrada e chamadas de funções complexas

Família de modelos

VariantePosicionamento
Qwen3.5-Omni-PlusPerformance SOTA, legendagem áudio-visual detalhada
Qwen3.5-Omni-Plus-RealtimeVoice Control, WebSearch, Voice Clone, Semantic Interruption
Qwen3.5-Omni-FlashVelocidade
Qwen3.5-Omni-LightLeveza

Acesso via chat.qwen.ai (botão VoiceChat/VideoChat) e pela API da Alibaba Cloud.

Nota complementar: O Qwen 3.6 Plus Preview está disponível gratuitamente no OpenRouter por tempo limitado — as interações são recolhidas durante esse período para melhorar o modelo.

🔗 Tweet @Alibaba_Qwen


15 funcionalidades ocultas do Claude Code

30 de março — Boris Cherny, responsável pelo Claude Code na Anthropic, publicou um thread revelando 15 funcionalidades pouco documentadas da ferramenta. O thread alcançou 3,6 milhões de visualizações, 2 000 reposts e 22 000 likes.

“I wanted to share a bunch of my favorite hidden and under-utilized features in Claude Code. I’ll focus on the ones I use the most. Here goes.”

🇵🇹 Queria partilhar algumas das minhas funcionalidades favoritas, pouco conhecidas e subutilizadas no Claude Code. Vou focar-me naquelas que eu uso mais. Vamos a isso.@bcherny no X

Mobilidade e sessões remotas

  • A aplicação Claude no iOS e Android inclui um separador Code que permite programar a partir do telefone
  • --teleport (ou /teleport) permite transferir uma sessão cloud para uma máquina local; /remote-control permite controlar uma sessão local a partir de qualquer dispositivo
  • Cowork Dispatch: controlo remoto seguro da Claude Desktop App a partir do móvel, com acesso aos servidores MCP (Model Context Protocol), ao navegador, etc.

Automação

  • /loop e /schedule permitem iniciar o Claude automaticamente em intervalos definidos, até uma semana — Cherny usa /loop 5m /babysit para uma revisão de código e um rebase automáticos contínuos
  • Os hooks (SessionStart, PreToolUse, etc.) permitem injetar lógica determinística no ciclo do agente, por exemplo para encaminhar pedidos de permissão para o WhatsApp

Paralelização

  • /batch distribui o trabalho para dezenas, centenas ou mesmo milhares de agentes em paralelo — útil para migrações de código em grande escala
  • claude -w inicia sessões paralelas em espaços de trabalho git (git worktrees) distintos

Produtividade diária

  • /btw permite colocar uma pergunta rápida enquanto um agente trabalha, sem interromper a tarefa em curso
  • /branch permite bifurcar (fork) uma sessão; ou via CLI: claude --resume <session-id> --fork-session
  • --agent permite definir agentes personalizados em .claude/agents/ com um sistema de prompt e ferramentas configuráveis
  • --add-dir / /add-dir dá ao Claude acesso a múltiplas pastas ou repositórios simultaneamente
  • --bare acelera o arranque do SDK até 10× (evita o carregamento de CLAUDE.md, parâmetros e servidores MCP)
  • /voice ativa a entrada por voz (barra de espaço na CLI, botão dedicado no Desktop, ditado iOS)
  • Extensão Chrome (beta): Claude Code + Chrome para testar aplicações web, depurar logs da consola e automatizar o navegador

🔗 Thread completo @bcherny


Claude Code: modo auto estendido ao Enterprise e à API

30 de março — O auto mode do Claude Code, lançado a 24 de março para utilizadores Pro e Max, está agora disponível no plano Enterprise e para desenvolvedores com acesso à API. Esta funcionalidade permite ao Claude tomar decisões de aprovação de ações (escrita de ficheiros, comandos bash) por si só, em vez de solicitar ao utilizador a cada passo.

Para o ativar num ambiente Enterprise ou via API:

claude --enable-auto-mode

O auto mode baseia-se em classificadores internos que avaliam o risco de cada ação antes de a executar, oferecendo um equilíbrio entre o modo permissivo (--dangerously-skip-permissions) e as aprovações manuais.

30 de março — O Cowork Dispatch pode agora iniciar tarefas de codificação com um modelo específico, referido diretamente em linguagem natural na instrução.

🔗 Tweet @claudeai


Perplexity lança o Secure Intelligence Institute

31 de março — A Perplexity lança o Secure Intelligence Institute (SII), um laboratório de investigação dedicado à segurança, privacidade e robustez dos sistemas de IA avançada. O Instituto é liderado pelo Dr. Ninghui Li — Samuel D. Conte Professor na Universidade Purdue, Fellow da ACM e IEEE, ex-presidente da ACM SIGSAC —, com parcerias académicas incluindo o grupo de criptografia aplicada do Dan Boneh e o Gong Lab do Neil Gong.

O SII publica três primeiros trabalhos:

PublicaçãoTipoDescrição
BrowseSafeBenchmark open-source14 700+ cenários de ataque reais, 14 categorias de risco para navegação por IA
Securing Agents NIST/CAISIPolíticaResposta ao RFI (Request for Information) sobre proteger agentes autónomos
Building Security Into CometArquiteturaDefesa em profundidade do navegador IA Comet

O SII transforma a sua investigação em melhorias concretas nos sistemas da Perplexity e partilha os seus trabalhos com o ecossistema de IA.

🔗 Secure Intelligence Institute


Cohere e Ensemble: LLM especializado na gestão do ciclo de receitas para a saúde

31 de março — Cohere e Ensemble anunciam a construção do primeiro grande modelo de linguagem (large language model / LLM) nativo em gestão do ciclo de receitas (Revenue Cycle Management / RCM) da indústria de saúde dos EUA.

A Ensemble oferece uma solução de ponta a ponta para hospitais e grupos médicos, desde o agendamento até a faturação final. Ao contrário das ofertas concorrentes que encapsulam LLMs gerais em prompts especializados, este modelo é totalmente personalizado na família Command da Cohere.

DomínioCapacidade
FinanceiroPrevisão de recusas antes da submissão, controlo de qualidade de faturação contínuo
ClínicoOrientação de documentação no ponto de cuidado, montagem de dossiês de apelação
AgenticoOrquestração multi-etapas do ciclo de receitas

O modelo foi treinado com os dados de pré-treino da Cohere, logs operacionais da Ensemble, fontes públicas de conhecimento RCM e anotações de especialistas do domínio. Um quadro de avaliação (benchmark) específico por domínio, co-desenvolvido, medirá o desempenho face aos LLMs gerais em tarefas RCM reais.

🔗 Blog Cohere


GitHub Copilot: desenvolvimento agent-first e integração com Slack

31 de março — Tyler McGoffin, investigador sénior da equipa Copilot Applied Science na GitHub, publica um relato de experiência sobre a construção de uma ferramenta interna com o Copilot como agente de codificação principal. A ferramenta automatiza a análise de trajetórias de agentes IA em benchmarks como o TerminalBench2 e o SWEBench-Pro.

As práticas descritas: uso do modo /plan antes de codificar, criação de “testes de contrato” (contract tests) que só um humano pode alterar, prompts detalhados em vez de concisos, e manutenção automática semanal via /plan Review the code for any missing tests.... A conclusão: as qualidades de um bom engenheiro (planeamento, contexto, comunicação) são idênticas para colaborar eficazmente com um agente IA.

30 de março — A app GitHub para Slack integra agora o Copilot para criar issues GitHub diretamente desde o Slack em linguagem natural. Basta mencionar @GitHub em qualquer canal e descrever o trabalho.

FuncionalidadeDetalhe
Criação em linguagem naturalDescrição → issues estruturadas (título, corpo, atribuídos, labels, milestones)
Sub-issuesDecompor o trabalho em issues pai/filho a partir de uma única mensagem
Modo conversaçãoIterar sobre as issues antes de as criar

31 de março — A GitHub apresenta o Copilot SDK permitindo integrar fluxos de trabalho agenticos (agentic workflows) em aplicações de terceiros segundo 3 modelos arquiteturais.

🔗 Blog GitHub - Agent-driven development 🔗 Changelog GitHub - Issues desde Slack


Runway: fundo de investimento e programa para startups

31 de março — A Runway lança duas iniciativas simultâneas.

O Runway Fund é um fundo de investimento para startups em fase inicial (early-stage) em IA, media e simulação do mundo. Compromisso inicial de até 10 milhões de dólares, com investimentos de até 500 000 dólares em pré-seed/seed. Foco em três eixos: pesquisa em IA (modelos do mundo e IA generativa), novas aplicações (camada aplicacional sobre LLMs) e novos media e conteúdos. Já foram realizados investimentos na Cartesia, LanceDB e Tamarind Bio.

O Runway Builders é um programa de aceleração para startups do seed à série C que constroem produtos com vídeo generativo e IA conversacional em tempo real. Os participantes recebem créditos API oferecidos, os limites de taxa mais altos e acesso a uma comunidade privada.

🔗 Runway Fund 🔗 Runway Builders


NVIDIA e Emerald AI: fábricas de IA flexíveis na rede elétrica

31 de março — NVIDIA e Emerald AI apresentam no CERAWeek uma nova abordagem para as fábricas de IA (AI factories): tratá-las como ativos flexíveis da rede elétrica em vez de cargas estáticas. A arquitetura assenta no NVIDIA Vera Rubin DSX e na plataforma Conductor da Emerald AI.

Parceiros de energia anunciados: AES, Constellation, Invenergy, NextEra Energy, Nscale Energy e Vistra. Anúncios associados:

  • Maximo: instalação solar robótica IA de 100 MW operacional em Bellefield com NVIDIA Isaac Sim
  • TerraPower + SoftServe: gêmeo digital (digital twin) NVIDIA Omniverse para reduzir prazos de conceção de centrais nucleares Natrium
  • Adaptive Construction Solutions: programa nacional de formação para construção de fábricas de IA
  • GE Vernova, Schneider Electric, Vertiv: designs de referência (reference designs) validados para Vera Rubin

Jensen Huang descreve a energia como a camada fundamental de um “bolo IA de cinco camadas” (five-layer AI cake).

🔗 Blog NVIDIA - AI Factories


Em resumo

Gemini Live no Gemini 3.1 Flash Live30 de março — O Google confirmou o despliegue do modelo Gemini 3.1 Flash Live na aplicação Gemini Live, disponível para todos os utilizadores. Essa transição (anunciada a 26 de março) traz conversas de áudio mais naturais e melhor precisão em ambientes ruidosos. 🔗 Tweet @GeminiApp

Manus: controlo desde o telefone para Desktop30 de março — Manus adiciona a possibilidade de controlar a aplicação Desktop a partir do smartphone: iniciar tarefas, aceder a ficheiros e lançar fluxos de trabalho sem tocar no computador. 🔗 Tweet @ManusAI

Midjourney V8 teaser29 de março — David Holz (fundador da Midjourney) anuncia uma versão “radicalmente diferente” do V8, “chegando muito em breve”. Sem data anunciada. 🔗 Tweet @DavidSHolz

Claude Code v2.1.87 — Correção de um bug no Cowork Dispatch em que as mensagens não eram entregues. 🔗 CHANGELOG GitHub


O que isso significa

A captação da OpenAI a uma avaliação de 852 mil milhões marca um ponto de inflexão: com estes números, a distância entre os intervenientes de topo e o resto do setor alarga-se estruturalmente. Com 900 milhões de utilizadores semanais e uma meta de mil milhões, o ChatGPT impõe-se como uma infraestrutura de massa, não apenas um produto tecnológico.

O lançamento do Qwen3.5-Omni ilustra a competição crescente sobre modelos omnimodais. O Audio-Visual Vibe Coding representa uma evolução concreta da codificação por intenção (vibe coding) — passar do texto para a voz e para o vídeo como interface principal com a IA generativa.

Do lado das ferramentas para desenvolvedores, o thread de Boris Cherny revela que o Claude Code acumulou funcionalidades avançadas (paralelização massiva com /batch, automatização via hooks, sessões distribuídas) que permaneceram desconhecidas por falta de documentação visível. A extensão do auto mode aos planos Enterprise segue uma trajetória clássica: validação em preview, depois implantação progressiva.

Finalmente, a criação do Secure Intelligence Institute pela Perplexity e as iniciativas da Cohere na área da saúde sinalizam uma tendência: os atores de segunda linha procuram diferenciar-se em verticais especializados (segurança IA, saúde regulamentada) em vez de competir frontalmente nos modelos gerais.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator