Les trois principaux laboratoires d'IA—OpenAI, Anthropic et Google—ont lancé leurs derniers modèles malgré des tests de pré-déploiement qui n'ont pas pu écarter que les systèmes aident de manière significative les novices à développer des armes biologiques. Les entreprises ont répondu en ajoutant des « mesures de protection renforcées » plutôt qu'en retardant les lancements, selon le Rapport international sur la sécurité de l'IA 2026. Le modèle o3 d'OpenAI surpasse maintenant 94 % des experts en biologie dans le dépannage de protocoles complexes de laboratoires de virologie, tandis qu'Anthropic a documenté des capacités de « sabotage sournois » et d'aide aux armes chimiques dans leur dernière version.

Cela marque un moment décisif où la pression commerciale semble l'emporter sur la prudence sécuritaire. L'IA a bondi au 2e rang des risques commerciaux mondiaux selon les données de l'ONU et de Gartner, la menace principale passant des violations de données à l'« Échec de système autonome »—des agents IA exécutant des tâches sans supervision créant des responsabilités opérationnelles et légales en cascade. Le timing ne pourrait être pire, alors que des demandes internationales formelles ont été déposées le 28 janvier pour un traité juridiquement contraignant interdisant les systèmes d'armes autonomes.

Ce qui est particulièrement préoccupant, c'est la spécificité technique de ces risques. Le Model Context Protocol (MCP) qui standardise les connexions entre les agents IA et les serveurs crée de nouveaux vecteurs d'attaque pour les mouvements latéraux si les systèmes sont piratés. Pendant ce temps, le Maryland envisage de criminaliser les deepfakes électoraux, et le Rapport sur les risques mondiaux 2026 du Forum économique mondial identifie le « désordre informationnel » piloté par l'IA comme une menace principale à l'intégrité démocratique.

Pour les développeurs qui construisent avec ces modèles, ce n'est pas théorique—vous travaillez avec des systèmes que leurs propres créateurs reconnaissent avoir des capacités dangereuses qu'ils ne peuvent pas entièrement contrôler. Les « mesures de protection renforcées » sont essentiellement des pansements sur des modèles qui n'auraient probablement pas dû être lancés sous leur forme actuelle. Construisez en conséquence.