Le double usage n'est pas propre à l'IA — la physique nucléaire, la biologie et la cryptographie y font tous face. Ce qui rend l'IA différente, c'est la vitesse de prolifération : une technique biologique dangereuse nécessite un laboratoire ; une technique IA dangereuse ne nécessite qu'un ordinateur. Ça signifie que la gouvernance traditionnelle du double usage (contrôles à l'exportation, réglementation de sécurité des laboratoires) se transpose imparfaitement à l'IA, où le « laboratoire » est un laptop et les « matériaux » sont du code open source.
Les laboratoires d'IA de pointe évaluent les modèles pour détecter les capacités dangereuses avant leur sortie : peut-il fournir des instructions détaillées pour des armes biologiques ? Peut-il aider à des cyberattaques ? Peut-il générer de la désinformation convaincante à grande échelle ? Ces « évaluations de capacités dangereuses » déterminent quelles mesures de sécurité sont nécessaires. Les modèles qui montrent un risque élevé dans des domaines spécifiques reçoivent des garde-fous supplémentaires, et certaines capacités sont parfois retirées ou restreintes.
Le double usage crée une tension aiguë autour des sorties de modèles à poids ouverts. Les modèles ouverts (Llama, Mistral) peuvent être librement modifiés pour retirer les garde-fous de sécurité, permettant le mésusage. Mais ils permettent aussi la recherche en sécurité, l'étude académique, les applications respectueuses de la vie privée et l'innovation que les modèles propriétaires ne permettent pas. Le débat n'a pas de résolution facile — les deux côtés ont des arguments légitimes, et la politique optimale évolue probablement à mesure que les capacités et les risques changent.