Le spectre de l'ouverture : entièrement propriétaire (API seulement, pas de poids, pas de détails — GPT-4, Claude), à poids ouverts (poids publiés, architecture décrite, mais données d'entraînement et code retenus — Llama, Mistral), et open source (poids, code, données et recette d'entraînement tous publics — rare, surtout académique). La plupart de l'« IA open source » est en fait à poids ouverts. La distinction compte pour la reproductibilité, l'auditabilité et la responsabilité légale.
Les modèles ouverts permettent : la transparence (tu peux inspecter ce que le modèle fait), la confidentialité (tes données ne quittent jamais ton infrastructure), la personnalisation (ajustement fin pour tes besoins spécifiques), le contrôle des coûts (pas de frais par token), la recherche (le monde académique peut étudier et améliorer les modèles), la compétition (prévient le monopole), et la fiabilité (pas de dépendance à la disponibilité ou aux politiques d'un fournisseur). La communauté open source a démontré une capacité remarquable à construire des inférences efficaces (llama.cpp), des outils d'ajustement fin (PEFT, TRL) et des variantes de modèles.
Les modèles fermés permettent : des contrôles de sécurité (le fournisseur peut appliquer des politiques d'utilisation), un déploiement responsable (surveillance des abus), des mises à jour rapides des capacités (les utilisateurs reçoivent les améliorations sans redéploiement), et la responsabilité (une entité responsable derrière le modèle). L'argument sécuritaire est le plus fort à la frontière : les modèles les plus capables présentent le plus de potentiel d'abus, et une fois les poids publiés, les garde-fous de sécurité peuvent être retirés par n'importe qui. C'est pourquoi la plupart des modèles de frontière restent en API seulement.