OpenAI a expédié GPT-5.5 aujourd'hui, sept jours après GPT-5.4 — la cadence de release la plus rapide que la compagnie a roulée dans la série 5. Greg Brockman l'a cadré comme un pas vers la thèse « superapp » qu'OpenAI télégraphe depuis le trimestre dernier, pis la VP Research Amelia Glaese l'a qualifié de « notre modèle le plus fort encore en coding ». Le modèle est expédié à ChatGPT Plus, Pro, Business, pis Enterprise immédiatement, avec GPT-5.5 Pro allant aux trois tiers du haut. Axios rapporte que le nom de code interne est « Spud ».
Les chiffres à la une sont Terminal-Bench 2.0 à 82,7 % (en hausse depuis 75,1 % de GPT-5.4) pis l'éval de coding interne Expert-SWE à 73,1 % (en hausse depuis 68,5 %). Le cadrage de VentureBeat a attrapé la comparaison la plus intéressante : sur Terminal-Bench 2.0 spécifiquement, GPT-5.5 bat de justesse le Mythos Preview d'Anthropic. C'est notable parce que Mythos est le modèle restreint en preview de recherche qu'Anthropic n'a pas rendu généralement disponible ; GPT-5.5 est expédié aux utilisateurs ChatGPT aujourd'hui. La revendication pratique qui compte vraiment pour l'économique de service est dans les notes de release d'OpenAI : GPT-5.5 matche la latence par-token de GPT-5.4 tout en complétant les tâches avec moins de tokens. Si ça tient sur les charges de production, c'est une amélioration directe de coût-par-complétion au même plafond de débit.
La cadence est le pattern. GPT-5.4 a été expédié le 16 avril, le même jour qu'Opus 4.7 d'Anthropic est passé en disponibilité générale. GPT-5.5 est le 23 avril, une semaine plus tard, battant Mythos de justesse sur un benchmark qui n'est lui-même pas disponible généralement. Le tempo de release de modèles qui était en mois est maintenant en semaines, pis chaque release atterrit avec des benchmarks sélectifs qui positionnent contre le compétiteur qui a sorti le plus récemment. Pour quiconque construit sur OpenAI, la vélocité coupe des deux bords : les nouvelles capacités arrivent plus vite, pis le modèle contre lequel t'as construit y'a deux semaines peut plus être l'option par défaut quand tes utilisateurs frappent.
Trois notes concrètes pour les builders. Un, si tu expédies des workflows agentiques sur ChatGPT ou l'API, la revendication d'efficience par-token est le levier à tester contre ta charge de travail en premier ; Terminal-Bench 2.0 pis Expert-SWE ne sont pas ta charge. Deux, le cadrage « coding pis usage d'outils de bout en bout » dans la release d'OpenAI (écrire pis déboguer du code, chercher en ligne, analyser des données, créer documents pis feuilles de calcul, opérer du logiciel, bouger à travers les outils jusqu'à ce qu'une tâche soit finie) matche la convergence vers la surface de features Claude Code/Gemini CLI/Cursor qu'on suit depuis tout le mois. Trois, la discipline de versioning compte plus maintenant. GPT-5.4 à GPT-5.5 est un delta de sept jours. Épingle la chaîne de modèle dont tu dépends.
