GitHub lança os Agentic Workflows em technical preview, permitindo automatizar tarefas de repositório via arquivos Markdown e agentes de IA. Do lado da OpenAI, GPT-5.2 deriva um novo resultado em física teórica, Lockdown Mode protege ChatGPT contra injeções de prompt, e a infraestrutura de scaling de Codex e Sora é detalhada. Anthropic e Google apostam na educação com parcerias e recursos dedicados aos estudantes.
GitHub Agentic Workflows em Technical Preview
13 de fevereiro — GitHub lança os Agentic Workflows em technical preview, uma nova abordagem de automação de repositórios baseada em agentes de codificação de IA integrados nativamente ao GitHub Actions.
O conceito central: descrever os objetivos de automação em Markdown natural em vez do YAML tradicional. Um arquivo .github/workflows/workflow.md é suficiente — a CLI gh aw converte-o em um workflow GitHub Actions padrão, executado por um agente de IA (GitHub Copilot CLI, Claude ou Codex).
| Caso de Uso | Descrição |
|---|---|
| Triagem automatizada | Rotular, categorizar e rotear issues |
| Documentação sincronizada | Manter a documentação atualizada com o código |
| Melhoria de testes | Aumentar a cobertura automaticamente |
| Análise CI/CD | Investigar falhas de build |
| Relatórios de saúde | Gerar insights periódicos sobre o repositório |
A segurança está no centro do design: permissões somente leitura por padrão, sandboxing, isolamento de rede e allowlisting de ferramentas. Os workflows têm acesso nativo ao GitHub MCP server para interagir com issues, PRs, Actions e sistemas de segurança. Os gatilhos são flexíveis: eventos, cronograma, manuais ou via comentários.
Os autores (Don Syme & Peli de Halleux) recomendam começar com saídas de baixo risco (comentários, relatórios) antes de ativar a criação de pull requests.
🔗 Anúncio GitHub Agentic Workflows
GPT-5.2 deriva um novo resultado em física teórica
13 de fevereiro — OpenAI publica um preprint demonstrando que GPT-5.2 propôs uma fórmula para uma amplitude de glúon que os físicos pensavam não poder existir. O resultado, intitulado “Single-minus gluon tree amplitudes are nonzero”, foi verificado por uma equipe interna e colaboradores acadêmicos.
O artigo é de coautoria de pesquisadores do Institute for Advanced Study (IAS), Vanderbilt University, Cambridge University e Harvard University. GPT-5.2 identificou uma estrutura matemática na teoria das amplitudes — um campo da física de partículas — que as abordagens tradicionais não haviam explorado.
Esta descoberta ilustra o potencial de modelos de IA avançados para contribuir com a pesquisa teórica fundamental, especialmente em campos onde fórmulas simples frequentemente sinalizam estruturas mais profundas. O preprint está disponível no arXiv e está sendo submetido para publicação.
OpenAI lança Lockdown Mode e Elevated Risk Labels
13 de fevereiro — OpenAI introduz duas novas proteções no ChatGPT para combater ataques de injeção de prompt, uma ameaça crescente à medida que os sistemas de IA lidam com tarefas envolvendo a web e aplicativos conectados.
| Proteção | Descrição | Disponibilidade |
|---|---|---|
| Lockdown Mode | Configuração de segurança avançada e opcional para usuários de alto risco | ChatGPT |
| Elevated Risk labels | Rótulos claros sinalizando capacidades que introduzem riscos adicionais | ChatGPT, Atlas, Codex |
Essas proteções se somam às defesas existentes: sandboxing, proteção contra exfiltração de dados via URL, controles de acesso baseados em função e logs de auditoria. O objetivo é dar aos usuários e organizações mais clareza sobre riscos e controles mais fortes contra tentativas de manipulação por terceiros.
Beyond Rate Limits: como OpenAI escala o acesso ao Codex e Sora
13 de fevereiro — Diante da rápida adoção do Codex e Sora superando as previsões, OpenAI detalha sua arquitetura de real-time access engine que substitui o modelo tradicional de limites de taxa.
O sistema funciona em “cascata”: em vez de perguntar “é permitido?”, pergunta “quanto é permitido, e de onde?”. As camadas se sucedem — limites gratuitos, free tier, créditos pagos, promoções enterprise — oferecendo um continuum sem interrupções para o usuário.
| Princípio | Descrição |
|---|---|
| Tempo real | Detecção imediata de excesso de limite e ativação de créditos |
| Idempotência | Cada débito carrega uma chave estável, eliminando cobrança dupla |
| Trilha de auditoria | Cada ajuste de saldo documentado com atribuição |
| Reconciliabilidade | Transparência total sobre por que uma solicitação é permitida/bloqueada |
OpenAI construiu este sistema internamente após avaliar plataformas de faturamento de terceiros, que não atendiam às necessidades de precisão em tempo real e observabilidade completa.
Anthropic faz parceria com CodePath para educação em IA
13 de fevereiro — Anthropic faz parceria com CodePath, o maior provedor de treinamento em ciência da computação para estudantes de ensino superior nos EUA. A colaboração integra Claude e Claude Code nos currículos de IA da CodePath, expandindo o acesso a ferramentas de IA para mais de 20.000 estudantes.
Mais de 100 estudantes já testaram o Claude Code no outono de 2025 em projetos open-source. A Universidade Howard redesenhou seu curso “Intro to AI” com Claude, reduzindo o tempo de ensino de 4 anos para 2 anos. Mais de 40% dos estudantes da CodePath vêm de famílias que ganham menos de $50,000/ano — um sinal forte de democratização do acesso a ferramentas de IA.
Esta parceria é parte do compromisso mais amplo da Anthropic com a educação em IA, juntamente com colaborações com AFT, Islândia e Ruanda.
Chris Liddell junta-se ao conselho de administração da Anthropic
13 de fevereiro — Chris Liddell, ex-vice-chefe de gabinete na Casa Branca e vice-presidente da General Motors, junta-se ao conselho da Anthropic. Esta nomeação reforça a presença da Anthropic nas esferas governamentais e industriais.
GABRIEL: OpenAI lança toolkit open-source para ciências sociais
13 de fevereiro — A equipe de pesquisa econômica da OpenAI lança GABRIEL, uma biblioteca Python open-source que ajuda pesquisadores de ciências sociais a transformar dados qualitativos em dados quantitativos em escala.
| Capacidade | Exemplo |
|---|---|
| Análise Qualitativa | Fazer uma pergunta em linguagem natural e aplicá-la a milhares de documentos |
| Análise Curricular | Medir a atenção dada a diferentes assuntos nos currículos |
| Fusão e Desduplicação | Mesclar conjuntos de dados mesmo sem colunas correspondentes |
| Desidentificação | Mascarar informações pessoais |
O toolkit é projetado para exigir o mínimo de conhecimento técnico, com notebook de tutorial incluído.
Gemini lança 5 recursos para estudantes
13 de fevereiro — Google publica um guia completo mostrando como Gemini 3 ajuda os estudantes com 5 categorias de recursos práticos.
| Recurso | Descrição |
|---|---|
| SAT/JEE Practice Tests | Testes completos gratuitos com feedback por domínio e planos de estudo personalizados |
| Canvas Writing | Espaço colaborativo para refinar textos, criar apresentações, depurar código |
| Deep Learning | Upload de imagens/PDFs de anotações, imagens interativas com explicações ao clicar |
| Preparação para exames | Quizzes personalizados, Audio Overviews (podcasts), flashcards |
| Futuro da Carreira | Revisão de CV/cartas de apresentação, entrevistas simuladas, fotos profissionais via Nano Banana |
Estudantes universitários elegíveis beneficiam de 1 ano grátis de Google AI Pro (Gemini 3 Pro completo, 2 TB de armazenamento, NotebookLM avançado). A parceria com The Princeton Review garante o rigor dos testes SAT.
🔗 Recursos Gemini para estudantes
Qwen AI Slides: da ideia à apresentação em um clique
13 de fevereiro — Alibaba Qwen lança oficialmente Qwen AI Slides, um recurso que transforma automaticamente ideias, texto ou documentos em apresentações profissionais. O sistema combina as capacidades de agente do Qwen3 com o modelo de geração de imagens Qwen-Image 2.0.
Um Agente de Busca pesquisa, organiza e constrói a estrutura narrativa, então Qwen-Image 2.0 gera cada slide como uma composição visual completa (texto, layout, paleta de cores, gráficos). O recurso é acessível via chat.qwen.ai.
Copilot Coding Agent: mudança de rede em 27 de fevereiro
13 de fevereiro — GitHub implementa uma mudança de arquitetura de rede para o Copilot coding agent, efetiva em 27 de fevereiro de 2026. As conexões serão roteadas para endpoints específicos por plano de assinatura em vez do endpoint único atual.
| Plano | Endpoint |
|---|---|
| Copilot Business | api.business.githubcopilot.com |
| Copilot Enterprise | api.enterprise.githubcopilot.com |
| Copilot Pro/Pro+ | api.individual.githubcopilot.com |
Equipes usando self-hosted runners ou runners com Azure private networking devem atualizar suas configurações de rede antes do prazo. Tarefas do Copilot coding agent falharão após 27 de fevereiro sem esta atualização.
🔗 Mudanças na configuração de rede
Stability AI junta-se à Tech Coalition
11 de fevereiro — Stability AI anuncia sua adesão à Tech Coalition, uma aliança global de empresas de tecnologia trabalhando juntas para combater a exploração sexual e o abuso de crianças online. Uma iniciativa de RSE que se insere nos esforços da indústria por uma IA responsável.
O que isso significa
O dia 13 de fevereiro marca uma convergência notável: GitHub e OpenAI aprofundam a automação agêntica (Agentic Workflows de um lado, scaling do Codex do outro), enquanto a segurança assume um lugar central com Lockdown Mode. A contribuição do GPT-5.2 para a física teórica ilustra uma tendência emergente: os modelos de IA não se contentam mais em resumir ou gerar, começam a produzir resultados científicos verificáveis. Finalmente, Anthropic e Google fazem claramente da educação um eixo estratégico — acesso gratuito, parcerias universitárias, ferramentas dedicadas aos estudantes.
Fontes
- GitHub Agentic Workflows Technical Preview
- Blog GitHub Agentic Workflows
- OpenAI — New result in theoretical physics
- OpenAI — Lockdown Mode
- OpenAI — Beyond rate limits
- OpenAI — GABRIEL toolkit
- Anthropic — CodePath Partnership
- Anthropic — Chris Liddell board
- Google — Gemini features for students
- Qwen AI Slides
- GitHub — Network configuration changes
- Stability AI — Tech Coalition