El uso dual no es exclusivo de la IA — la física nuclear, la biología y la criptografía enfrentan lo mismo. Lo que hace diferente a la IA es la velocidad de proliferación: una técnica biológica peligrosa requiere un laboratorio; una técnica de IA peligrosa requiere solo una computadora. Esto significa que la gobernanza tradicional de uso dual (controles de exportación, regulaciones de seguridad de laboratorio) se traduce imperfectamente a la IA, donde el "laboratorio" es una laptop y los "materiales" son código abierto.
Los principales laboratorios de IA evalúan los modelos en busca de capacidades peligrosas antes del lanzamiento: ¿Puede proporcionar instrucciones detalladas para armas biológicas? ¿Puede ayudar con ciberataques? ¿Puede generar desinformación convincente a escala? Estas "evaluaciones de capacidades peligrosas" determinan qué medidas de seguridad son necesarias. Los modelos que muestran riesgo elevado en áreas específicas reciben salvaguardas adicionales, y a veces las capacidades se eliminan o restringen.
El uso dual crea una tensión aguda en torno a los lanzamientos de modelos de pesos abiertos. Los modelos abiertos (Llama, Mistral) pueden modificarse libremente para eliminar las salvaguardas de seguridad, habilitando el mal uso. Pero también permiten la investigación de seguridad, el estudio académico, las aplicaciones que preservan la privacidad y la innovación que los modelos propietarios no permiten. El debate no tiene una resolución fácil — ambos lados tienen argumentos legítimos, y la política óptima probablemente evoluciona a medida que las capacidades y los riesgos cambian.