Zubnet AIApprendreWiki › Poids ouverts
Sécurité

Poids ouverts

Aussi appelé : Open source (en contexte IA)
Quand une entreprise publie les paramètres entraînés d'un modèle pour que quiconque puisse le télécharger et l'exécuter. « Open weights » est plus exact que « open source » parce que la plupart des modèles publiés n'incluent pas les données d'entraînement ni le code d'entraînement — on obtient le modèle fini mais pas la recette. Llama, Mistral et Qwen sont des modèles open-weights.

Pourquoi c’est important

Les open weights signifient que vous pouvez exécuter l'IA sur votre propre matériel en toute confidentialité — pas d'appels API, pas de données qui quittent votre réseau. Le compromis, c'est qu'il faut les ressources GPU pour les faire tourner et que vous êtes responsable de la sécurité.

En profondeur

Le terme « open weights » existe parce que l'utilisation du terme « open source » par l'industrie de l'IA est réellement trompeuse. L'open source traditionnel (tel que défini par l'OSI) signifie qu'on obtient le code source, qu'on peut le modifier et le redistribuer. Quand Meta publie Llama, on obtient les poids entraînés du modèle — les milliards de paramètres numériques qui définissent le comportement du modèle — mais pas les données d'entraînement, pas le code d'entraînement complet, et souvent pas le pipeline de prétraitement des données. On peut exécuter l'inférence et faire du fine-tuning, mais on ne peut pas reproduire le modèle de zéro. L'Open Source Initiative a publié une définition formelle de l'« IA open source » fin 2024 pour tenter de clarifier cela, mais l'industrie utilise encore les termes de façon approximative. Connaître la distinction importe quand on évalue ce qu'on peut réellement faire avec un modèle.

Le spectre des licences

Le spectre d'ouverture varie considérablement d'une publication à l'autre. À une extrémité, les modèles Llama de Meta sont assortis d'une licence personnalisée qui interdit l'utilisation par les entreprises de plus de 700 millions d'utilisateurs actifs mensuels (visant clairement les concurrents) et exige l'attribution. Les modèles de Mistral ont généralement utilisé Apache 2.0, l'une des licences les plus permissives disponibles. La famille Qwen d'Alibaba utilise aussi Apache 2.0. DeepSeek a publié ses poids sous licence MIT. Pendant ce temps, des projets comme BLOOM (BigScience) et OLMo (AI2) sont allés plus loin en publiant aussi les données d'entraînement et le code d'entraînement complet — ceux-ci sont plus proches du véritable open source. Pour les développeurs, la licence détermine si le modèle est utilisable commercialement, s'il faut partager les modifications, et si on peut construire des produits propriétaires dessus.

L'exécuter soi-même

Exécuter des modèles open-weights soi-même est devenu radicalement plus accessible grâce à la quantification et aux moteurs d'inférence optimisés. Un modèle de 70 milliards de paramètres qui nécessiterait plus de 140 Go de VRAM en pleine précision peut tourner sur un seul GPU grand public de 24 Go en quantification 4 bits avec une perte de qualité acceptable. Des outils comme llama.cpp, vLLM et Ollama ont rendu l'inférence locale presque triviale — on peut avoir un modèle performant qui tourne sur un ordinateur portable de jeu en quelques minutes. Le goulot d'étranglement pratique est passé de « est-ce que je peux l'exécuter ? » à « est-ce que la qualité est suffisante pour mon cas d'usage ? » Les petits modèles quantifiés sont remarquablement bons pour beaucoup de tâches, mais ils perdent en performance sur le raisonnement complexe et le travail en long contexte comparés aux modèles de pointe en pleine précision servis via API.

Le débat sur la sécurité

Les implications sécuritaires des open weights sont l'un des sujets les plus activement débattus en politique de l'IA. L'inquiétude est directe : une fois les poids publiés, n'importe qui peut faire du fine-tuning pour supprimer l'entraînement de sécurité. Les chercheurs ont démontré que les garde-fous de sécurité basés sur le RLHF peuvent être retirés des modèles open-weights avec seulement quelques centaines d'exemples et un minimum de calcul. Cela signifie que les modèles open-weights peuvent être transformés en versions non censurées qui se conformeront à n'importe quelle demande. Le contre-argument — et il est solide — est que les connaissances contenues dans ces modèles sont déjà disponibles sur Internet, que les bénéfices de la recherche ouverte et de l'innovation distribuée l'emportent sur les risques, et que tenter de restreindre la distribution des modèles ne fait que concentrer le pouvoir dans quelques grandes entreprises sans améliorer significativement la sécurité. Les deux côtés ont des arguments valables, et le débat est loin d'être clos.

Faire le bon choix

Pour les praticiens qui choisissent entre modèles open-weights et modèles via API, la décision repose sur quatre facteurs : la vie privée (les open weights gardent vos données en local), le coût (l'auto-hébergement est moins cher à grand volume mais plus cher à faible volume), le contrôle (on peut faire du fine-tuning et personnaliser librement), et les capacités (les modèles de pointe accessibles uniquement par API comme GPT-4o et Claude surpassent encore les meilleurs modèles open-weights sur de nombreux benchmarks, bien que l'écart se réduise à chaque nouvelle version majeure). Beaucoup de systèmes en production utilisent les deux — envoyant les requêtes simples à un modèle open-weights local pour la rapidité et le coût, et dirigeant les tâches complexes vers une API de pointe. Cette approche hybride offre le meilleur des deux mondes, et c'est de plus en plus le choix pragmatique pour les équipes qui ont besoin à la fois de performance et de confidentialité.

Concepts connexes

← Tous les termes
← Réseau de neurones OpenAI →
ESC