Uso duplo não é exclusivo da IA — física nuclear, biologia e criptografia todos enfrentam isso. O que torna a IA diferente é a velocidade de proliferação: uma técnica biológica perigosa requer um laboratório; uma técnica de IA perigosa requer apenas um computador. Isso significa que a governança tradicional de uso duplo (controles de exportação, regulamentos de segurança de laboratório) se traduz imperfeitamente para IA, onde o "laboratório" é um laptop e os "materiais" são código open-source.
Os principais laboratórios de IA avaliam modelos para capacidades perigosas antes do lançamento: Pode fornecer instruções detalhadas para bioarmas? Pode ajudar com ciberataques? Pode gerar desinformação convincente em escala? Essas "avaliações de capacidade perigosa" determinam quais medidas de segurança são necessárias. Modelos que mostram risco elevado em áreas específicas recebem barreiras adicionais, e capacidades às vezes são removidas ou restritas.
Uso duplo cria tensão aguda em torno de lançamentos de modelos open-weight. Modelos abertos (Llama, Mistral) podem ser livremente modificados para remover barreiras de segurança, permitindo uso indevido. Mas também permitem pesquisa de segurança, estudo acadêmico, aplicações que preservam privacidade e inovação que modelos proprietários não permitem. O debate não tem resolução fácil — ambos os lados têm argumentos legítimos, e a política ótima provavelmente evolui conforme capacidades e riscos mudam.