Zubnet AIApprendreWiki › Double usage
Sécurité

Double usage

Aussi appelé : Technologie à double usage
Une technologie qui peut être utilisée à des fins aussi bien bénéfiques que nuisibles. L'IA est intrinsèquement à double usage : le même modèle qui aide un médecin à diagnostiquer des maladies pourrait aider un acteur malveillant à synthétiser des composés dangereux. Le même modèle de génération de code qui accélère le développement logiciel pourrait aider à créer des logiciels malveillants. Gérer le risque du double usage est un défi central de la gouvernance de l'IA.

Pourquoi c'est important

Le double usage est la tension fondamentale du développement de l'IA. Rendre les modèles plus capables les rend inévitablement plus capables de nuire. Tu ne peux pas construire un moteur de raisonnement puissant qui ne raisonne que sur les bonnes choses. Cette tension alimente les débats sur les sorties open source, les restrictions d'API et la réglementation — comment maximiser les bénéfices tout en minimisant les dommages quand la même capacité permet les deux ?

En profondeur

Le double usage n'est pas propre à l'IA — la physique nucléaire, la biologie et la cryptographie y font tous face. Ce qui rend l'IA différente, c'est la vitesse de prolifération : une technique biologique dangereuse nécessite un laboratoire ; une technique IA dangereuse ne nécessite qu'un ordinateur. Ça signifie que la gouvernance traditionnelle du double usage (contrôles à l'exportation, réglementation de sécurité des laboratoires) se transpose imparfaitement à l'IA, où le « laboratoire » est un laptop et les « matériaux » sont du code open source.

L'approche par évaluation des capacités

Les laboratoires d'IA de pointe évaluent les modèles pour détecter les capacités dangereuses avant leur sortie : peut-il fournir des instructions détaillées pour des armes biologiques ? Peut-il aider à des cyberattaques ? Peut-il générer de la désinformation convaincante à grande échelle ? Ces « évaluations de capacités dangereuses » déterminent quelles mesures de sécurité sont nécessaires. Les modèles qui montrent un risque élevé dans des domaines spécifiques reçoivent des garde-fous supplémentaires, et certaines capacités sont parfois retirées ou restreintes.

La tension de l'open source

Le double usage crée une tension aiguë autour des sorties de modèles à poids ouverts. Les modèles ouverts (Llama, Mistral) peuvent être librement modifiés pour retirer les garde-fous de sécurité, permettant le mésusage. Mais ils permettent aussi la recherche en sécurité, l'étude académique, les applications respectueuses de la vie privée et l'innovation que les modèles propriétaires ne permettent pas. Le débat n'a pas de résolution facile — les deux côtés ont des arguments légitimes, et la politique optimale évolue probablement à mesure que les capacités et les risques changent.

Concepts connexes

← Tous les termes
← Données synthétiques DPO →