A OpenAI publicou um plano de ação de cibersegurança em 29 de abril, resumido pela Help Net Security, que enquadra a abordagem da empresa como uma corrida para armar defensores em vez de restringir o acesso a modelos por motivos de segurança. Sasha Baker, Head of National Security Policy da OpenAI, enquadrou a ameaça: "Atores maliciosos estão usando IA para melhorar phishing, automatizar reconhecimento, acelerar desenvolvimento de malware, evadir detecção e aumentar a escala de operações cyber. Esses grupos não precisam dos modelos fundacionais mais avançados para causar dano real; mesmo sistemas mid-tier capazes podem dar uma vantagem operacional significativa." O plano está estruturado em cinco pilares: democratizar a ciberdefesa, coordenar entre governo e indústria, fortalecer a segurança em torno de capacidades cyber de fronteira, preservar visibilidade e controle no deploy, e permitir que usuários se protejam. O veículo para o acesso dos defensores é o programa Trusted Access for Cyber (TAC) — acesso em níveis para defensores verificados, com controles mais rigorosos sobre capacidades mais poderosas. A Help Net Security contrasta isso explicitamente com "a postura mais cautelosa da Anthropic, que enfatiza controle mais apertado e acesso restrito a capacidades de IA avançadas."

A divisão OpenAI/Anthropic agora é uma segmentação de mercado explícita. O argumento da OpenAI: se atacantes podem usar sistemas mid-tier para escalar phishing, reconhecimento, desenvolvimento de malware e evasão de detecção, restringir a capacidade de fronteira só para os defensores simplesmente perde a corrida. A implicação é que a alavanca certa de política é acesso em níveis, não limitação de capacidade — exatamente o que o TAC institucionaliza. O contra-argumento da Anthropic é que o acesso massivo de defensores também significa exposição dual-use massiva, e o precedente da recusa ao Pentágono que cobrimos no início desta semana (o processo de supply-chain-risk da Anthropic) generaliza — recusa os casos de uso onde você não consegue fazer cumprir controles de segurança. Ambas as posturas são defensáveis. Qual vence provavelmente depende menos do mérito técnico do que do ambiente regulatório e de qual processo tipo Tumbler-Ridge cai primeiro contra uma das empresas.

Três padrões importam. Primeiro, "mesmo sistemas mid-tier capazes podem dar uma vantagem operacional significativa" — o enquadramento de Baker — é a mesma tese que a Wiz Research demonstrou contra o GitHub na semana passada, quando IA foi usada para encontrar um RCE crítico num binário fechado. O modelo de ameaça de descoberta de vulnerabilidades por IA agora está mainstreamizado no próprio enquadramento de política da OpenAI. Espere que todo grande vendor de segurança publique relatórios semelhantes ao longo de 2026, e espere que as seguradoras comecem a precificar a exposição a ataques de IA nos prêmios. Segundo, o desenho de acesso em níveis do programa TAC é um template: verifique os defensores, escale o acesso a capacidade por nível de confiança, mantenha as capacidades mais poderosas atrás de controles mais pesados. Essa estrutura é portável para qualquer provedor que queira oferecer capacidades "safety-tier" para uso defensivo; espere que Anthropic, Google, Microsoft e AWS Bedrock publiquem seus próprios equivalentes em 12 meses. Terceiro, a divisão Anthropic vs OpenAI espelha a divisão industrial mais ampla de 2026 — a OpenAI pega contratos e apostas de capacidade que a Anthropic recusa (contratos do Pentágono, acesso de defensores). O mercado vai eventualmente precificar qual lado está certo; por enquanto, os builders precisam ler as políticas das duas empresas e se posicionar explicitamente.

Para os builders, três coisas concretas. Primeiro, se você constrói tooling de segurança, o programa tiered TAC é algo para avaliar de verdade, não só marcar como bookmark. O caso de uso do lado do defensor para modelos avançados é real (descoberta de vulnerabilidades, triagem de logs, threat hunting, RAG sobre feeds CTI), e a OpenAI está sinalizando que quer parceiros verificados. Entre cedo ou veja a concorrência entrar primeiro. Segundo, o enquadramento "sistemas mid-tier também perigosos" é um sinal regulatório. Se a OpenAI está argumentando publicamente que a capacidade mid-tier basta para escalar ataques significativos, a resposta legislativa vai vir — espere frameworks de compliance para modelos de tier de capacidade média que antes não existiam, e prepare a sua própria documentação de segurança preventivamente. Terceiro, a divergência de política OpenAI-Anthropic agora é uma escolha estratégica explícita para qualquer empresa construindo sobre uma das duas. Se os seus clientes se importam com "acesso restrito como feature de segurança," a Anthropic é o fornecedor upstream cuja postura se alinha. Se os seus clientes querem acesso amplo a capacidade para defensores, o TAC da OpenAI é o veículo fornecedor. O pitch "agnóstico sobre qual modelo você usa" de um ano atrás não é mais totalmente agnóstico — você agora precisa explicar de que lado da divisão de política se alinha.