O Claude Mythos Preview da Anthropic se tornou o primeiro modelo de IA a completar um desafio complexo de infiltração de rede de 32 etapas, de acordo com testes independentes do AI Security Institute do Reino Unido. O modelo teve sucesso em 3 de 10 tentativas na simulação "The Last Ones", que imita ataques a redes corporativas que levariam aproximadamente 20 horas para profissionais humanos executarem. Mesmo as execuções falhadas tiveram média de 22 das 32 etapas necessárias, superando significativamente a média de 16 etapas do Claude 4.6.

Isso não é sobre habilidades individuais de hacking—o Mythos performa comparativamente a modelos de fronteira recentes como GPT-5.4 e Claude Opus 4.6 em tarefas isoladas de cibersegurança, atingindo taxas de sucesso de 85% em desafios básicos de capture-the-flag. O avanço está em encadear ataques através de múltiplos segmentos de rede, uma capacidade que transforma a IA de um script kiddie sofisticado em algo que se assemelha a um verdadeiro testador de penetração. É por isso que a Anthropic restringiu o Mythos a "parceiros industriais críticos" em vez de lançá-lo publicamente.

Mas o hype precisa de calibração. O Mythos ainda falha no "Cooling Tower", uma simulação de disrupção de usina elétrica de sete etapas, e os testes do AISI usaram um orçamento restrito de 100 milhões de tokens. As capacidades cibernéticas do modelo, embora notáveis, representam progresso incremental em um cenário onde habilidades de segurança de IA têm subido constantemente desde que o GPT-3.5 lutava com tarefas básicas em 2023.

Para desenvolvedores construindo ferramentas de segurança alimentadas por IA, isso sinaliza que capacidades autônomas multi-etapas estão chegando mais rápido que o esperado. Mas também significa que suas suposições de segurança sobre assistentes de IA precisam de atualização—se o Mythos pode encadear 22 etapas de ataque, modelos mais simples provavelmente conseguem lidar com as fases de reconhecimento e acesso inicial que mais importam para atacantes reais.