Investigadores de seguridad en Phantom Labs descubrieron una vulnerabilidad de inyección de comandos en Codex de OpenAI que podría haber permitido a atacantes robar tokens de autenticación de GitHub de desarrolladores usando el asistente de programación de ChatGPT. La falla funcionaba engañando a Codex para que ejecutara comandos maliciosos que exfiltraban credenciales sensibles, potencialmente dando a los atacantes acceso a repositorios privados y entornos de desarrollo. BeyondTrust, la empresa matriz de Phantom Labs, reportó que la vulnerabilidad ya fue parcheada por OpenAI.

Esta vulnerabilidad resalta una tensión fundamental en los asistentes de programación IA: mientras más capaces se vuelven de ejecutar código e interactuar con entornos de desarrollo, más grande crece su superficie de ataque. Codex no solo está generando sugerencias de código—está interfiriendo activamente con cadenas de herramientas de desarrollo, incluyendo sistemas de control de versiones donde los tokens de autenticación son activos críticos. El hecho de que una inyección de comandos pudiera comprometer estos tokens muestra cómo las vulnerabilidades de seguridad tradicionales están encontrando nuevos vectores a través de sistemas IA.

Mientras que el reporte original se enfocó en la mecánica técnica del exploit, las implicaciones más amplias se extienden más allá de este único bug. Cada asistente de programación importante—desde GitHub Copilot hasta la ejecución de código de Claude—ahora se sienta entre los desarrolladores y sus recursos de desarrollo más sensibles. La vulnerabilidad aparentemente fue descubierta a través de divulgación responsable, pero plantea preguntas sobre qué tan minuciosamente estos sistemas IA están siendo auditados para ataques de inyección y otras fallas de seguridad que podrían weaponizar sus capacidades crecientes contra los mismos desarrolladores que están diseñados para ayudar.