OpenAI a mis à jour son Agents SDK le 15 avril avec un ensemble de capacités qui, pris ensemble, sont la ratification la plus claire à ce jour des standards sur lesquels l'écosystème des agents a convergé depuis un an. La mise à jour livre un harnais model-native avec une mémoire configurable, de l'orchestration consciente du bac à sable, pis des outils fichiers « à la Codex ». Elle standardise cinq primitives que les développeurs bâtissaient à la main : l'usage d'outils via MCP, la divulgation progressive via les skills, les instructions personnalisées via AGENTS.md, l'exécution de code basée sur shell, pis les éditions de fichiers par apply-patch. L'exécution en bac à sable est supportée nativement avec des intégrations bring-your-own pour Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop pis Vercel. Python sort en premier, TypeScript suit. La partie intéressante, c'est pas une fonctionnalité en particulier, c'est la forme du geste agrégé.
Cinq standards viennent d'être ratifiés dans une seule sortie. AGENTS.md, un fichier markdown à la racine du projet qui fournit des instructions personnalisées à l'agent, est maintenant une primitive explicite d'OpenAI, à côté du CLAUDE.md d'Anthropic pis du patron SKILL.md d'Android chez Google d'hier. La convention de nommage s'est standardisée sur « fichier lisible-par-agent à la racine du projet », pis avec OpenAI qui adopte AGENTS.md, la convention est effectivement réglée. MCP, qu'Anthropic a livré en 2024 pis qu'un gros écosystème tiers a adopté, est maintenant citoyen de première classe chez OpenAI. C'était le dernier grand labo à tenir le mur ; MCP est le standard de facto pour les interfaces d'outils. Les skills, que Google a utilisées pour le travail SKILL.md sur Android, sont maintenant une primitive nommée dans l'SDK d'OpenAI pour la « divulgation progressive » des instructions d'agent. L'exécution de code basée sur shell pis les éditions de fichiers par apply-patch, c'est les deux primitives d'exécution qui ont émergé de Claude Code pis Cursor, pis OpenAI les adopte sans renommer. Au pluriel, « fournisseurs de bac à sable » signale autre chose. OpenAI essaie pas de posséder la couche bac à sable ; il standardise l'interface pis laisse un marché se développer. Le Code Mode de Cloudflare, que j'ai couvert hier, s'insère directement dans ce modèle.
La forme de cette mise à jour, c'est OpenAI qui passe de « on invente les standards » à « on adopte ce que l'écosystème a déjà choisi ». C'est un changement de posture significatif. Pendant les deux dernières années, l'hypothèse par défaut, c'était que chaque labo allait livrer ses propres primitives d'agent propriétaires pis concurrencer sur leur qualité. Ce qui est arrivé pour vrai, c'est de la convergence : MCP pour les outils, CLAUDE.md pis AGENTS.md pour les instructions, SKILL.md pis les skills pour la divulgation progressive, des abstractions de bac à sable pour l'exécution de code. Les labos qui essaient de livrer des versions propriétaires de ces trucs se font contourner par l'écosystème tiers. Qu'OpenAI ratifie les standards de l'écosystème, c'est le geste pragmatique. Ça signale que la couche agent-SDK est plus une surface de verrouillage significative, pis que la différenciation concurrentielle doit se faire aux couches qualité de modèle, qualité d'intégration de bac à sable, pis profondeur d'écosystème. C'est aussi implicitement l'aveu que la façon la plus rapide d'extraire de la valeur de l'écosystème des agents, c'est de se brancher proprement plutôt que de lutter contre le courant.
Pour quiconque bâtit avec des agents de code ou utilisateurs d'outils, trois gestes immédiats. Premièrement, si t'utilises pas déjà AGENTS.md ou un équivalent comme surface de configuration d'agent pour ton projet, adopte-le maintenant. La convention est réglée pis le coût de migration compose plus tu restes sur un système maison. Deuxièmement, audite ton exposition d'outils MCP. Avec OpenAI qui supporte maintenant officiellement MCP, le serveur que t'as bâti pour Claude ou pour un client tiers va marcher nativement dans l'SDK d'OpenAI, pis vice versa. Ça enlève pas mal de friction aux configurations multi-fournisseurs. Troisièmement, choisis ton fournisseur de bac à sable délibérément. Sept fournisseurs sont maintenant de première classe dans l'SDK d'OpenAI, ce qui veut dire que le sandboxing est plus une décision de commodité. Les fournisseurs se différencient sur la latence, le support de langues, la tarification pis la posture de sécurité, pis ces différences-là vont apparaître dans le comportement en exécution de ton agent. Le Code Mode de Cloudflare pis la posture Python-first d'E2B sont deux exemples de fournisseurs de bac à sable avec des approches distinctes. La méta-leçon, c'est que les standards d'agents se sont stabilisés plus vite que la plupart du monde s'y attendait. Si t'écris encore des échafaudages d'appel d'outils maison, de la plomberie de bac à sable maison ou des fichiers d'instructions maison, c'est maintenant plus un passif qu'un actif.
