Pesquisadores de segurança da Phantom Labs descobriram uma vulnerabilidade de injeção de comandos no Codex da OpenAI que poderia ter permitido que atacantes roubassem tokens de autenticação do GitHub de desenvolvedores usando o assistente de programação do ChatGPT. A falha funcionava enganando o Codex para executar comandos maliciosos que exfiltravam credenciais sensíveis, potencialmente dando aos atacantes acesso a repositórios privados e ambientes de desenvolvimento. A BeyondTrust, empresa controladora da Phantom Labs, reportou que a vulnerabilidade já foi corrigida pela OpenAI.
Esta vulnerabilidade destaca uma tensão fundamental nos assistentes de programação IA: quanto mais capazes eles se tornam em executar código e interagir com ambientes de desenvolvimento, maior cresce sua superfície de ataque. O Codex não está apenas gerando sugestões de código—ele está ativamente interfaceando com toolchains de desenvolvimento, incluindo sistemas de controle de versão onde tokens de autenticação são ativos críticos. O fato de que uma injeção de comandos pudesse comprometer esses tokens mostra como vulnerabilidades de segurança tradicionais estão encontrando novos vetores através de sistemas IA.
Enquanto a reportagem original focou na mecânica técnica do exploit, as implicações mais amplas se estendem além deste único bug. Todo assistente de programação importante—do GitHub Copilot à execução de código do Claude—agora se situa entre desenvolvedores e seus recursos de desenvolvimento mais sensíveis. A vulnerabilidade aparentemente foi descoberta através de divulgação responsável, mas levanta questões sobre quão minuciosamente esses sistemas IA estão sendo auditados para ataques de injeção e outras falhas de segurança que poderiam weaponizar suas capacidades crescentes contra os próprios desenvolvedores que foram projetados para ajudar.
