Zubnet AIAprenderWiki › Uso dual
Seguridad

Uso dual

También conocido como: Tecnología de uso dual
Tecnología que puede usarse tanto para propósitos beneficiosos como perjudiciales. La IA es inherentemente de uso dual: el mismo modelo que ayuda a un médico a diagnosticar enfermedades podría ayudar a un actor malintencionado a sintetizar compuestos peligrosos. El mismo modelo de generación de código que acelera el desarrollo de software podría ayudar a crear malware. Gestionar el riesgo de uso dual es un desafío central de la gobernanza de la IA.

Por qué importa

El uso dual es la tensión fundamental del desarrollo de IA. Hacer los modelos más capaces inevitablemente los hace más capaces de causar daño. No puedes construir un motor de razonamiento poderoso que solo razone sobre cosas buenas. Esta tensión impulsa los debates sobre publicaciones de código abierto, restricciones de API y regulación — ¿cómo maximizas el beneficio minimizando el daño cuando la misma capacidad permite ambos?

En profundidad

El uso dual no es exclusivo de la IA — la física nuclear, la biología y la criptografía enfrentan lo mismo. Lo que hace diferente a la IA es la velocidad de proliferación: una técnica biológica peligrosa requiere un laboratorio; una técnica de IA peligrosa requiere solo una computadora. Esto significa que la gobernanza tradicional de uso dual (controles de exportación, regulaciones de seguridad de laboratorio) se traduce imperfectamente a la IA, donde el "laboratorio" es una laptop y los "materiales" son código abierto.

El enfoque de evaluación de capacidades

Los principales laboratorios de IA evalúan los modelos en busca de capacidades peligrosas antes del lanzamiento: ¿Puede proporcionar instrucciones detalladas para armas biológicas? ¿Puede ayudar con ciberataques? ¿Puede generar desinformación convincente a escala? Estas "evaluaciones de capacidades peligrosas" determinan qué medidas de seguridad son necesarias. Los modelos que muestran riesgo elevado en áreas específicas reciben salvaguardas adicionales, y a veces las capacidades se eliminan o restringen.

La tensión del código abierto

El uso dual crea una tensión aguda en torno a los lanzamientos de modelos de pesos abiertos. Los modelos abiertos (Llama, Mistral) pueden modificarse libremente para eliminar las salvaguardas de seguridad, habilitando el mal uso. Pero también permiten la investigación de seguridad, el estudio académico, las aplicaciones que preservan la privacidad y la innovación que los modelos propietarios no permiten. El debate no tiene una resolución fácil — ambos lados tienen argumentos legítimos, y la política óptima probablemente evoluciona a medida que las capacidades y los riesgos cambian.

Conceptos relacionados

ESC