O Secretário do Tesouro Scott Bessent e o presidente do Fed Jerome Powell chamaram executivos bancários para Washington nesta semana, encorajando-os a testar o novo modelo Mythos da Anthropic para detectar vulnerabilidades de segurança. JPMorgan Chase foi o único parceiro oficialmente anunciado, mas Goldman Sachs, Citigroup, Bank of America e Morgan Stanley também estão testando o modelo, segundo a Bloomberg.
Essa pressão do Tesouro cria uma contradição bizarra no centro da política governamental de IA. Enquanto um braço do governo Trump está ativamente promovendo a tecnologia da Anthropic para o setor financeiro, o Department of Defense designou a empresa como um risco de cadeia de suprimentos. Essa designação surgiu depois que a Anthropic se recusou a dar ao governo acesso irrestrito aos seus modelos, levando a uma batalha judicial que ainda está em andamento. Os sinais contraditórios revelam como diferentes agências estão tomando abordagens completamente diferentes para segurança de IA e interesses nacionais.
O marketing da Anthropic em torno do Mythos — alegando que é "bom demais" em encontrar vulnerabilidades apesar de não ter sido treinado para cibersegurança — cheira a teatro de vendas corporativas. A empresa está limitando o acesso parcialmente devido a essas supostas capacidades, mas essa restrição convenientemente cria escassez que aumenta a demanda. Enquanto isso, reguladores financeiros do Reino Unido estão supostamente discutindo os riscos apresentados pelo Mythos, sugerindo preocupação internacional sobre um modelo que o Tesouro americano está ativamente promovendo.
Para desenvolvedores trabalhando em serviços financeiros, isso cria um cenário complicado. Bancos estão claramente famintos por ferramentas de segurança alimentadas por IA, mas o ambiente regulatório permanece fragmentado. Se você está construindo neste espaço, espere chicotadas políticas contínuas enquanto diferentes agências governamentais descobrem se empresas de IA são parceiros ou ameaças.
