Dia excepcional na IA: Anthropic anuncia uma arrecadação de fundos de 30 bilhões de dólares elevando sua avaliação para 380 bilhões, OpenAI implanta um modelo de coding em tempo real a 1000+ tokens/segundo na Cerebras, e Google impulsiona Gemini 3 Deep Think para novos recordes em ciências. Do lado do ecossistema, xAI reestrutura suas equipes em torno de 4 produtos, Mistral investe 1,2 bilhão de euros na Suécia, e GitHub suspende temporariamente GPT-5.3-Codex por razões de confiabilidade.
Anthropic levanta 30 bilhões de $ em Série G
12 de fevereiro — Anthropic anuncia uma arrecadação de fundos de 30 bilhões de dólares em Série G, elevando a avaliação post-money da empresa para 380 bilhões de dólares. A rodada é co-liderada por GIC e Coatue, com a participação de D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ e MGX. A lista de investidores adicionais inclui Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft e NVIDIA entre outros.
| Métrica | Valor |
|---|---|
| Valor arrecadado | 30 bilhões $ |
| Avaliação post-money | 380 bilhões $ |
| Receita anualizada (run-rate) | 14 bilhões $ |
| Crescimento anual | 10x por ano (últimos 3 anos) |
| Clientes >100k$/ano | Crescimento de 7x em um ano |
| Clientes Enterprise >1M$/ano | Mais de 500 (vs 12 há 2 anos) |
| Clientes Fortune 10 | 8 de 10 |
| Run-rate Claude Code | 2,5 bilhões $ (dobrou desde janeiro de 2026) |
| Usuários semanais Claude Code | 2x desde 1º de janeiro de 2026 |
| Commits GitHub via Claude Code | 4% (dobrou em 1 mês) |
| Assinaturas business Claude Code | 4x desde o início de 2026 |
| Participação empresarial Claude Code | >50% da receita do Claude Code |
Os fundos servirão para pesquisa fundamental, desenvolvimento de produtos e expansão da infraestrutura. Claude permanece o único modelo de IA frontier disponível nas três principais plataformas de nuvem: AWS (Bedrock), Google Cloud (Vertex AI) e Microsoft Azure (Foundry). Anthropic treina e executa Claude em uma gama diversificada de hardware de IA (AWS Trainium, Google TPUs, NVIDIA GPUs).
This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.
🇵🇹 Esta captação de recursos reflete a incrível demanda que estamos vendo desses clientes, e usaremos esse investimento para continuar construindo os produtos e modelos de nível empresarial dos quais eles passaram a depender. — Krishna Rao, CFO da Anthropic (@AnthropicAI no X)
GPT-5.3-Codex-Spark: modelo em tempo real na Cerebras
12 de fevereiro — OpenAI lança GPT-5.3-Codex-Spark em research preview, um modelo de coding em tempo real otimizado para inferência ultrarrápida no Cerebras Wafer-Scale Engine 3. É o primeiro modelo OpenAI implantado em hardware não NVIDIA.
Codex-Spark é uma versão compacta do GPT-5.3-Codex, projetada para trabalho interativo onde a latência importa tanto quanto a inteligência: edições direcionadas, refatoração de lógica, ajuste de interfaces com feedback imediato.
| Especificação | Detalhe |
|---|---|
| Tokens/segundo | > 1.000 (vs 50-100 para modelos padrão) |
| Janela de contexto | 128k tokens |
| Formato | Apenas texto (multimodal planejado posteriormente) |
| Redução overhead cliente/servidor | 80% (WebSocket persistente) |
| Redução overhead por token | 30% |
| Redução time-to-first-token | 50% |
O modelo roda no Cerebras Wafer-Scale Engine 3, um processador monolítico que mantém o cálculo estreitamente acoplado para inferência de alto rendimento. Este lançamento marca o primeiro passo da parceria OpenAI-Cerebras anunciada em janeiro de 2026.
Codex-Spark está disponível em research preview para assinantes ChatGPT Pro, nas últimas versões do app Codex, da CLI e da extensão VS Code. O acesso à API é limitado a parceiros selecionados, com implantação mais ampla planejada.
No SWE-Bench Pro e Terminal-Bench 2.0, o modelo mostra desempenho sólido completando tarefas em uma fração do tempo em comparação com GPT-5.3-Codex. Limites de taxa separados se aplicam durante a fase de research preview.
Eventualmente, Codex oferecerá dois modos complementares: raciocínio de longo horizonte (tarefas autônomas de várias horas/dias) e colaboração em tempo real (iteração rápida). Ambos os modos poderão se combinar, com delegação de tarefas longas a subagentes em segundo plano.
Gemini 3 Deep Think: pontuações recordes em ciências
12 de fevereiro — Google anuncia uma grande atualização do Gemini 3 Deep Think, seu modo de raciocínio especializado. O modelo agora é projetado para resolver desafios concretos em ciência, pesquisa e engenharia, além da teoria abstrata.
Deep Think foi atualizado em estreita parceria com cientistas e pesquisadores. O objetivo é abordar problemas de pesquisa complexos, onde os dados são frequentemente desordenados ou incompletos e onde não existe uma solução única. O modelo combina conhecimento científico profundo e utilidade em engenharia.
Benchmarks recordes
| Benchmark | Pontuação | Nota |
|---|---|---|
| Humanity’s Last Exam | 48,4% (sem ferramentas) | Novo padrão para modelos frontier |
| ARC-AGI-2 | 84,6% | Verificado pela ARC Prize Foundation |
| Codeforces | Elo 3455 | Programação competitiva |
| IMO 2025 | Medalha de ouro | Olimpíada Internacional de Matemática |
| IPhO 2025 (escrito) | Medalha de ouro | Olimpíada Internacional de Física |
| IChO 2025 (escrito) | Medalha de ouro | Olimpíada Internacional de Química |
| CMT-Benchmark | 50,5% | Física Teórica Avançada |
Casos de uso reais
- Matemática (Lisa Carbone, Universidade Rutgers): Deep Think identificou uma falha lógica sutil em um artigo de matemática altamente técnico, que havia escapado da revisão humana por pares. Ela trabalha nas estruturas matemáticas necessárias para a física de altas energias.
- Ciência dos Materiais (Wang Lab, Universidade Duke): Otimização de métodos de fabricação para o crescimento de cristais complexos, candidatos para materiais semicondutores. Deep Think projetou uma receita para cultivar filmes finos de mais de 100 micrômetros.
- Engenharia Mecânica (Anupam Pathak, Google Platforms & Devices): Iteração em protótipos físicos na velocidade do software. Possibilidade de transformar um esboço em um objeto imprimível em 3D (geração de arquivo STL).
Gemini 3 Deep Think está disponível a partir de hoje para assinantes Google AI Ultra no app Gemini, e pela primeira vez via API em acesso antecipado para pesquisadores, engenheiros e empresas.
Reestruturação da xAI: 4 equipes e Macrohard
11 de fevereiro — xAI publica um all-hands de 45 minutos no X, revelando uma reestruturação importante da empresa após a saída de metade de seus cofundadores (6 de 12). As últimas saídas são as de Tony Wu e Jimmy Ba.
Elon Musk anuncia a reorganização da xAI em 4 equipes principais:
| Equipe | Foco | Líder |
|---|---|---|
| Grok | Chatbot + voz | - |
| Coding | Sistema de código de aplicativo | - |
| Imagine | Geração de vídeo | - |
| Macrohard | Simulação computacional → empresas | Toby Pohlen |
Macrohard é o projeto mais ambicioso: segundo Toby Pohlen, o sistema “é capaz de fazer tudo o que um computador pode fazer em um computador”. A ambição se estende até o design de motores de foguete por IA.
Métricas chave anunciadas
- X ultrapassou 1 bilhão de USD em receita recorrente anual (assinaturas)
- Imagine gera 50 milhões de vídeos por dia
- Mais de 6 bilhões de imagens nos últimos 30 dias
A visão interplanetária de Musk se estende de data centers orbitais a bases lunares. Esses anúncios ocorrem após a aquisição da xAI pela SpaceX (2 de fevereiro) e a saída de 6 cofundadores de 12 durante o último ano (Kyle Kosic para OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).
Mistral investe 1,2 bilhão de EUR na Suécia
11 de fevereiro — Mistral AI anuncia um investimento de 1,2 bilhão de euros (1,4 bilhão de USD) para construir uma infraestrutura de IA na Suécia, em parceria com EcoDataCenter. É o primeiro investimento de infraestrutura de IA da Mistral fora da França.
O data center estará localizado em Borlänge (Suécia) no site da EcoDataCenter, com abertura prevista para 2027. A instalação fornecerá 23 megawatts de potência de computação e hospedará as GPUs NVIDIA Vera Rubin de última geração.
| Detalhe | Valor |
|---|---|
| Valor | 1,2 bi EUR / 1,4 bi USD |
| Parceiro | EcoDataCenter |
| Localização | Borlänge, Suécia |
| Abertura | 2027 |
| Capacidade | 23 MW |
| GPU | NVIDIA Vera Rubin |
| Receita projetada | 2 bi EUR em 5 anos |
Arthur Mensch, CEO da Mistral AI, declarou que este investimento é “um passo concreto para a construção de capacidades independentes na Europa, dedicadas à IA”. A escolha da Suécia explica-se pelo seu acesso a energia limpa e relativamente barata. O objetivo é entregar um stack de IA totalmente europeu — projetado, construído e operado em toda a cadeia de valor da IA, com dados processados e armazenados localmente na Europa.
Qwen-Image-2.0: geração e edição de imagens unificadas
10 de fevereiro — Alibaba lança Qwen-Image-2.0, um modelo foundation de geração de imagens de nova geração que unifica a geração text-to-image e a edição de imagens em uma única arquitetura.
Mudanças principais em relação à v1:
- Arquitetura unificada geração + edição (anteriormente modelos separados)
- Modelo mais compacto: 7B parâmetros (vs 20B para a v1)
- Renderização de texto aprimorada com suporte a prompts de até 1K tokens
- Resolução nativa 2K (2048x2048)
| Benchmark | Qwen-Image-2.0 | FLUX.1 |
|---|---|---|
| DPG-Bench | 88,32 | 83,84 |
| AI Arena (blind eval) | #1 | - |
O modelo se destaca na renderização de texto em chinês e inglês através de diferentes formatos: infográficos, pôsteres, caligrafia, sinalização. Qwen-Image-2.0 está disponível em teste de API na plataforma Alibaba Cloud BaiLian e gratuitamente via Qwen Chat (chat.qwen.ai).
Deep Research atualiza para GPT-5.2
10 de fevereiro — OpenAI atualiza ChatGPT Deep Research com o modelo GPT-5.2, substituindo as versões anteriores o3 e o4-mini. A atualização traz conexões com apps, pesquisa em sites específicos e controles em tempo real.
| Funcionalidade | Detalhe |
|---|---|
| Modelo | GPT-5.2 (substitui o3 / o4-mini) |
| Conexões apps | Gmail, Google Calendar, Google Contacts + qualquer MCP |
| Pesquisa direcionada | Restrição a sites específicos e fontes confiáveis |
| Controles tempo real | Acompanhamento de progresso, interrupção e redirecionamento no meio da execução |
| Plano de pesquisa | Criável e editável antes do lançamento |
| Interface | Barra lateral redesenhada + visualização de relatório em tela cheia |
| Exportação | PDF e DOCX |
Os usuários agora podem conectar Deep Research a qualquer servidor MCP ou aplicativo, e restringir pesquisas na web a sites confiáveis para relatórios mais precisos e credíveis. Os apps funcionam em modo somente leitura como fontes confiáveis.
A implantação começou em 10 de fevereiro para usuários Plus e Pro, com usuários Free e Go a seguir nos dias seguintes.
ChatGPT junta-se ao GenAI.mil do Pentágono
10 de fevereiro — OpenAI anuncia a implantação de uma versão personalizada do ChatGPT no GenAI.mil, a plataforma de IA enterprise do Departamento de Defesa dos EUA. ChatGPT junta-se ao Google Gemini (lançado em dezembro de 2025) e xAI Grok (adicionado no final de dezembro de 2025) na plataforma.
| Detalhe | Valor |
|---|---|
| Plataforma | GenAI.mil (DoD) |
| Usuários potenciais | ~3 milhões (militares, civis, contratados) |
| Usuários ativos plataforma | 1,1 milhão únicos desde o lançamento |
| Classificação | Apenas dados não classificados |
| Infraestrutura | Nuvem governamental autorizada |
| Isolamento de dados | Dados isolados, não usados para treinar modelos OpenAI |
Os casos de uso cobrem a síntese e análise de documentos de política, a redação de materiais de aquisição, a geração de relatórios internos e checklists de conformidade, e a assistência à pesquisa e planejamento.
ElevenLabs for Government
11 de fevereiro — ElevenLabs lança ElevenLabs for Government, uma iniciativa dedicada ao setor público anunciada no ElevenLabs Summit em Londres. Esta plataforma oferece agentes de voz e chat de IA projetados para organizações governamentais, disponíveis 24/7, em vários idiomas, por telefone, chat, e-mail e WhatsApp.
A plataforma visa três objetivos:
- Acessibilidade e inclusão: agentes omnichannel multilíngues capazes de resolver solicitações dos cidadãos instantaneamente
- Eficiência e produtividade: automação de contatos de alto volume e redução de transferências entre serviços
- Confiança e engajamento: melhoria do acesso a comunicações alinhadas com políticas públicas
| Implantação | Detalhes |
|---|---|
| República Tcheca | Linhas diretas nacionais de emprego e benefícios, ~5.000 chamadas/dia, 85% de resolução autônoma |
| Ucrânia | Gêmeo digital de um alto funcionário + serviços públicos, em parceria com o Ministério da Transformação Digital |
| Midland, Texas (EUA) | Concierge cívico de voz “Jacky”, redução estimada de 7.000 chamadas perdidas/mês |
A plataforma é certificada SOC 2 Tipo 2, GDPR, CPRA e HIPAA para atender aos requisitos de segurança do setor público.
Anthropic cobre aumentos de eletricidade
11 de fevereiro — Anthropic anuncia que cobrirá os aumentos de preços de eletricidade para consumidores causados por seus data centers. A empresa assume quatro compromissos concretos:
| Compromisso | Detalhe |
|---|---|
| Custos de infraestrutura de rede | Cobertura de 100% dos custos de conexão à rede |
| Nova produção de energia | Comissionamento de novas capacidades de geração adaptadas às necessidades |
| Redução da pressão na rede | Investimento em sistemas de redução de consumo em picos |
| Investimento comunitário | Criação de centenas de empregos permanentes e milhares de empregos de construção |
Anthropic doa 20 milhões de $ para regulação da IA
12 de fevereiro — Anthropic anuncia uma doação de 20 milhões de dólares para a Public First Action, uma nova organização bipartidária 501(c)(4) nos EUA. O objetivo é mobilizar cidadãos e formuladores de políticas sobre questões de IA no interesse público.
O tweet da Anthropic destaca que a IA está sendo adotada mais rapidamente do que qualquer tecnologia na história, e que a janela para acertar as políticas públicas está se fechando.
Claude Code Desktop: plugins locais e marketplace
11 de fevereiro — Boris Cherny (líder do Claude Code na Anthropic) publica uma thread detalhando o que os engenheiros amam no Claude Code: sua personalização. Ele lista hooks, plugins, LSPs, MCPs, skills, esforço, agentes personalizados, linhas de status, estilos de saída como mecanismos de personalização.
Em paralelo, Lydia Hallie anuncia que Claude Code no desktop agora suporta plugins locais. Os usuários podem instalar comandos slash personalizados, skills e servidores MCP do marketplace, com sincronização automática entre desktop e CLI.
GitHub Mobile: Seletor de Modelo para Copilot
11 de fevereiro — GitHub adiciona um seletor de modelos ao Copilot Coding Agent no aplicativo GitHub Mobile, no iOS e Android.
Usuários Copilot Pro e Pro+ agora podem escolher o modelo de IA que alimenta suas sessões de coding agent diretamente do telefone, sem ter que passar pelo desktop.
| Modelo disponível | Editor |
|---|---|
| Auto (padrão — otimiza velocidade e desempenho) | GitHub |
| Claude Opus 4.5 | Anthropic |
| Claude Opus 4.6 | Anthropic |
| Claude Sonnet 4.5 | Anthropic |
| GPT-5.1-Codex-Max | OpenAI |
| GPT-5.2-Codex | OpenAI |
O modo Auto seleciona automaticamente um modelo para otimizar velocidade e desempenho de acordo com a disponibilidade. A funcionalidade está disponível a partir de agora para assinantes Copilot Pro e Pro+. O suporte Business e Enterprise chegará em breve. Nota: GPT-5.3-Codex, tornado GA em 9 de fevereiro, ainda não está na lista móvel.
GitHub suspende GPT-5.3-Codex (confiabilidade)
10 de fevereiro — GitHub anuncia a suspensão temporária da implantação do GPT-5.3-Codex no GitHub Copilot por razões de confiabilidade da plataforma, apenas um dia após o anúncio de sua disponibilidade geral.
O tweet, que cita em resposta o anúncio de 9 de fevereiro sobre o GA do GPT-5.3-Codex, gerou 357.500 visualizações e 1.000 curtidas, testemunhando o impacto na comunidade de desenvolvedores. Vários usuários relataram problemas de disponibilidade do serviço nas respostas.
O fato de o modelo ainda não figurar na lista do Seletor de Modelo Móvel (anunciado em 11 de fevereiro) pode estar relacionado a essa suspensão.
Manus lança Project Skills
12 de fevereiro — Manus (agora sob a Meta) lança Project Skills, uma funcionalidade que permite criar bibliotecas de habilidades dedicadas por projeto.
Cada projeto pode montar um conjunto de skills selecionadas de pools “Team Skills” ou coleções pessoais. A ideia: transformar uma pasta de projeto padrão em um espaço de trabalho inteligente e autônomo.
| Funcionalidade | Descrição |
|---|---|
| Bibliotecas por projeto | Montagem de toolkits personalizados de pools de equipe ou pessoais |
| Workflows contidos | Apenas skills explicitamente adicionadas ao projeto podem ser acionadas |
| Workflows bloqueados | Administradores podem bloquear o conjunto de skills para padronizar processos |
Os benefícios destacados: onboarding mais rápido, escalonamento da expertise individual para a organização e construção de “conhecimento institucional” que melhora com o tempo. Disponível imediatamente para todos os usuários Manus.
Gemini CLI v0.28.0 + Extension Settings
10-11 de fevereiro — Google lança a versão 0.28.0 da Gemini CLI e anuncia Extension Settings, uma nova funcionalidade para simplificar a configuração de extensões.
Gemini CLI v0.28.0 (10 de fevereiro)
| Novidade | Detalhe |
|---|---|
Comando /prompt-suggest | Novo comando slash para sugestões de prompts |
| Tema automático | Adaptação baseada no fundo do terminal |
| Compatibilidade IDE | Suporte adicionado para Positron IDE |
| OAuth aprimorado | Consentimento OAuth interativo e não interativo |
| Checklist component | Componente para gerenciamento de tarefas estruturadas no modo plan |
| Subagentes | Registro dinâmico de políticas para subagentes |
| Execução em segundo plano | Comandos shell em segundo plano |
Extension Settings (11 de fevereiro)
As extensões Gemini CLI agora podem definir parâmetros de configuração que os usuários fornecem na instalação. Configuração automática com prompts interativos, segurança integrada (dados sensíveis como chaves de API são armazenados no keychain do sistema) e gerenciamento centralizado via gemini extensions config. Extensões Data Cloud (BigQuery, Cloud SQL, Firestore, Looker, Spanner) já implementam essa funcionalidade.
Shopping IA no Google Search e Gemini
11 de fevereiro — Google anuncia a integração de funcionalidades de compras diretamente em seus produtos de IA — Search AI Mode e o chatbot Gemini.
Os usuários agora podem comprar itens da Etsy e Wayfair diretamente no chatbot Gemini. Direct Offers, uma nova funcionalidade no AI Mode, permite que marcas ofereçam descontos a potenciais compradores. Novos formatos de anúncios estão sendo testados no AI Mode do Search para varejistas.
O Google está trabalhando com Walmart, Target e Shopify em um protocolo de checkout permitindo que os consumidores finalizem suas compras diretamente nos produtos de IA do Google.
Relatório GTIG: ataques de destilação no Gemini
12 de fevereiro — O Google Threat Intelligence Group (GTIG) publica um relatório revelando que o Gemini foi alvo de ataques de destilação — tentativas de clonagem massiva via prompts repetidos.
Uma campanha enviou mais de 100.000 prompts ao Gemini antes de ser detectada. Os ataques visavam especificamente os algoritmos de raciocínio do Gemini. Os atacantes são principalmente empresas privadas e pesquisadores buscando uma vantagem competitiva.
Os sistemas do Google detectaram a atividade em tempo real e ajustaram as proteções. O Google considera a destilação como roubo de propriedade intelectual.
Codex CLI v0.99.0: execução shell concorrente
11 de fevereiro — OpenAI lança Codex CLI v0.99.0 com execução shell concorrente, uma statusline configurável e APIs dedicadas de app-server.
| Funcionalidade | Detalhe |
|---|---|
| Execução shell concorrente | Comandos shell diretos não bloqueiam mais um turno em andamento |
| /statusline | Configuração interativa de metadados no rodapé TUI |
| Resume picker adaptativo | Novo seletor para retomar sessões |
| App-server APIs | APIs dedicadas para integração de aplicativos |
| Admin controls | Controles de administração para pesquisa na web e rede |
| Imagens | Suporte GIF/WebP |
| Snapshotting | Snapshotting de ambiente |
| Steer mode | Estável e ativo por padrão (Enter envia, Tab coloca na fila) |
O empacotamento npm foi reformulado: binários específicos da plataforma são distribuídos via dist-tags @openai/codex, reduzindo o tamanho dos pacotes.
Qwen Chat AI Slides
12 de fevereiro — Qwen anuncia a próxima chegada do AI Slides no Qwen Chat. A funcionalidade permite converter diferentes tipos de documentos em apresentações: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.
A funcionalidade é construída com Qwen Agent + Qwen-Image 2.0 (o modelo de imagem lançado alguns dias antes). Chen Cheng demonstrou a capacidade de transformar artigos acadêmicos em apresentações orais em poucos minutos, com um agente de pesquisa integrado.
O que isso significa
A arrecadação de fundos de 30 bilhões de dólares da Anthropic a uma avaliação de 380 bilhões confirma a dominação dos modelos frontier na economia da IA. O run-rate de 14 bilhões de dólares anuais e a parcela de 2,5 bilhões gerada pelo Claude Code mostram que o coding assistido por IA tornou-se uma infraestrutura crítica para desenvolvedores e empresas.
A chegada do GPT-5.3-Codex-Spark na Cerebras marca uma virada na diversificação do hardware de IA além da NVIDIA. A inferência a 1000+ tokens/segundo muda a natureza da interação com modelos de código, tornando possível uma colaboração fluida em tempo real.
Gemini 3 Deep Think com suas medalhas de ouro em olimpíadas científicas e sua pontuação de 84,6% no ARC-AGI-2 demonstra que os modelos frontier começam a atingir um nível de raciocínio científico comparável aos melhores humanos em campos especializados.
A reestruturação da xAI em 4 equipes com Macrohard — visando fazer “tudo o que um computador pode fazer” — e o investimento massivo da Mistral na Europa mostram que a corrida pela infraestrutura de IA está acelerando globalmente. A suspensão do GPT-5.3-Codex pelo GitHub lembra, no entanto, que a confiabilidade permanece um grande desafio para a implantação em larga escala.
Fontes
- Anthropic — Série G $30B
- Anthropic — Eletricidade
- Anthropic — Public First Action
- Anthropic — Claude Code Plugins
- OpenAI — GPT-5.3-Codex-Spark
- OpenAI — Deep Research
- OpenAI — GenAI.mil
- OpenAI — Codex CLI v0.99.0
- Google — Gemini 3 Deep Think
- Google — Shopping IA
- Google — Extensões Gemini CLI
- Google — Destilação GTIG
- xAI — Reestruturação
- Mistral — Investimento Suécia
- Qwen — Image 2.0
- Qwen — AI Slides
- ElevenLabs — For Government
- GitHub — Mobile Model Picker
- GitHub — Pausa GPT-5.3-Codex
- Manus — Project Skills