Des chercheurs en sécurité chez Phantom Labs ont découvert une vulnérabilité d'injection de commandes dans Codex d'OpenAI qui aurait pu permettre aux attaquants de voler les tokens d'authentification GitHub des développeurs utilisant l'assistant de codage de ChatGPT. La faille fonctionnait en trompant Codex pour qu'il exécute des commandes malicieuses qui exfiltraient des identifiants sensibles, donnant potentiellement aux attaquants l'accès aux dépôts privés et aux environnements de développement. BeyondTrust, la société mère de Phantom Labs, a rapporté que la vulnérabilité a depuis été corrigée par OpenAI.
Cette vulnérabilité souligne une tension fondamentale dans les assistants de codage IA : plus ils deviennent capables d'exécuter du code et d'interagir avec les environnements de développement, plus leur surface d'attaque grandit. Codex ne fait pas que générer des suggestions de code—il interface activement avec les chaînes d'outils de développement, incluant les systèmes de contrôle de version où les tokens d'authentification sont des actifs critiques. Le fait qu'une injection de commandes puisse compromettre ces tokens montre comment les vulnérabilités de sécurité traditionnelles trouvent de nouveaux vecteurs à travers les systèmes IA.
Bien que le reportage original se soit concentré sur la mécanique technique de l'exploit, les implications plus larges s'étendent au-delà de ce seul bogue. Chaque assistant de codage majeur—de GitHub Copilot à l'exécution de code de Claude—se trouve maintenant entre les développeurs et leurs ressources de développement les plus sensibles. La vulnérabilité a apparemment été découverte par divulgation responsable, mais elle soulève des questions sur la minutie avec laquelle ces systèmes IA sont audités pour les attaques d'injection et autres failles de sécurité qui pourraient weaponiser leurs capacités grandissantes contre les développeurs mêmes qu'ils sont conçus pour aider.
