Phantom Labs 的安全研究人员在 OpenAI 的 Codex 中发现了一个命令注入漏洞,攻击者可能利用该漏洞从使用 ChatGPT 编程助手的开发者那里窃取 GitHub 身份验证 tokens。该漏洞通过欺骗 Codex 执行恶意命令来窃取敏感凭据,可能使攻击者获得对私有存储库和开发环境的访问权限。Phantom Labs 的母公司 BeyondTrust 报告称,OpenAI 已经修复了该漏洞。

这个漏洞凸显了 AI 编程助手中的一个根本性矛盾:它们在执行代码和与开发环境交互方面越来越强大,其攻击面也越来越大。Codex 不仅仅是生成代码建议——它还在积极与开发者工具链接口,包括版本控制系统,其中身份验证 tokens 是关键资产。命令注入能够破坏这些 tokens 的事实表明,传统的安全漏洞正在通过 AI 系统找到新的攻击途径。

虽然最初的报告重点关注了漏洞利用的技术机制,但更广泛的影响超出了这个单一 bug。每个主要的编程助手——从 GitHub Copilot 到 Claude 的代码执行——现在都位于开发者和他们最敏感的开发资源之间。该漏洞显然是通过负责任的披露发现的,但它提出了这样的问题:这些 AI 系统是否经过充分审计,以防范注入攻击和其他安全漏洞,这些漏洞可能会将其不断增长的能力武器化,反过来攻击它们本来要帮助的开发者。