OpenAI a publié un plan d'action cybersécurité le 29 avril, résumé par Help Net Security, qui cadre l'approche de la compagnie comme une course pour armer les défenseurs plutôt que pour restreindre l'accès aux modèles sur des bases de sécurité. Sasha Baker, Head of National Security Policy d'OpenAI, a cadré la menace : « Les acteurs malveillants utilisent l'IA pour améliorer le phishing, automatiser la reconnaissance, accélérer le développement de malware, échapper à la détection, pis augmenter l'échelle des opérations cyber. Ces groupes ont pas besoin des modèles de pointe les plus avancés pour causer du vrai mal; même des systèmes mid-tier compétents peuvent donner un avantage opérationnel significatif. » Le plan est structuré autour de cinq piliers : démocratiser la cyberdéfense, coordonner à travers gouvernement pis industrie, renforcer la sécurité autour des capacités cyber de pointe, préserver visibilité pis contrôle dans le déploiement, pis permettre aux utilisateurs de se protéger eux-mêmes. Le véhicule pour l'accès des défenseurs, c'est le programme Trusted Access for Cyber (TAC) — accès à paliers pour défenseurs vérifiés, avec des contrôles plus stricts sur les capacités plus puissantes. Help Net Security oppose explicitement ça à « la position plus prudente d'Anthropic, qui mise sur un contrôle plus serré pis un accès restreint aux capacités IA avancées. »

Le clivage OpenAI/Anthropic est asteure une segmentation de marché explicite. L'argument d'OpenAI : si les attaquants peuvent utiliser des systèmes mid-tier pour passer à l'échelle le phishing, la reconnaissance, le développement de malware pis l'évasion de détection, restreindre la capacité de pointe juste pour les défenseurs, ça perd la course. L'implication, c'est que le bon levier de politique, c'est l'accès à paliers, pas la limitation de capacité — exactement ce que TAC institutionnalise. Le contre-argument d'Anthropic, c'est que l'accès massif aux défenseurs, c'est aussi une exposition dual-use massive, pis le précédent du refus du Pentagone qu'on a couvert plus tôt cette semaine (la poursuite supply-chain-risk d'Anthropic) se généralise — restreint les cas d'usage où tu peux pas faire respecter les contrôles de sécurité. Les deux positions sont défendables. Laquelle gagne dépend probablement moins du mérite technique que de l'environnement réglementaire pis de quelle poursuite de type Tumbler-Ridge atterrit en premier contre l'une ou l'autre des compagnies.

Trois patterns comptent. Premièrement, « même des systèmes mid-tier compétents peuvent donner un avantage opérationnel significatif » — le cadrage de Baker — c'est la même thèse que Wiz Research a démontrée contre GitHub la semaine passée, quand de l'IA a été utilisée pour trouver un RCE critique dans un binaire fermé. Le modèle de menace de découverte de vulnérabilité par IA est asteure courant dans le propre cadrage de politique d'OpenAI. Attends-toi à ce que chaque grand fournisseur de sécurité publie des rapports similaires tout au long de 2026, pis attends-toi à ce que les assureurs commencent à inclure l'exposition aux attaques IA dans leurs primes. Deuxièmement, le design d'accès à paliers du programme TAC, c'est un template : vérifier les défenseurs, étager l'accès à la capacité par niveau de confiance, garder les capacités les plus puissantes derrière des contrôles plus lourds. Cette structure-là est portable à n'importe quel fournisseur qui veut offrir des capacités « safety-tier » pour usage défensif; attends-toi à ce qu'Anthropic, Google, Microsoft pis AWS Bedrock publient leurs propres équivalents dans les 12 prochains mois. Troisièmement, le clivage Anthropic vs OpenAI reflète le clivage industriel plus large de 2026 — OpenAI prend des contrats pis des paris de capacité qu'Anthropic refuse (contrats Pentagone, accès des défenseurs). Le marché va éventuellement valoriser quel côté a raison; pour l'instant, les builders doivent lire les politiques des deux compagnies pis prendre position explicitement.

Pour les builders, trois choses concrètes. Premièrement, si tu bâtis du tooling de sécurité, le programme à paliers TAC, c'est une affaire à évaluer pour vrai, pas juste à bookmarker. Le cas d'usage côté défenseur pour les modèles avancés est réel (découverte de vulnérabilités, triage de logs, chasse aux menaces, RAG sur des feeds CTI), pis OpenAI signale qu'elle veut des partenaires vérifiés. Embarque tôt ou regarde les concurrents embarquer en premier. Deuxièmement, le cadrage « les systèmes mid-tier sont aussi dangereux », c'est un signal réglementaire. Si OpenAI dit publiquement qu'une capacité mid-tier suffit pour passer à l'échelle des attaques significatives, la réponse législative va suivre — attends-toi à des cadres de conformité pour des modèles de palier de capacité moyenne qui existaient pas avant, pis prépare ta propre documentation de sécurité de manière préemptive. Troisièmement, la divergence de politique OpenAI-Anthropic est asteure un choix stratégique explicite pour n'importe quelle compagnie qui bâtit sur l'une ou l'autre. Si tes clients tiennent à « accès restreint comme feature de sécurité », Anthropic c'est le fournisseur en amont dont la position s'aligne. Si tes clients veulent un accès large à la capacité pour les défenseurs, le TAC d'OpenAI, c'est le véhicule fournisseur. Le pitch « agnostique sur quel modèle tu utilises » d'y a un an est plus complètement agnostique — tu dois maintenant expliquer de quel côté du clivage de politique tu t'alignes.