Phantom Labs 的安全研究人員在 OpenAI 的 Codex 中發現了一個指令注入漏洞,攻擊者可能利用該漏洞從使用 ChatGPT 程式設計助手的開發者那裡竊取 GitHub 身份驗證 tokens。該漏洞透過欺騙 Codex 執行惡意指令來竊取敏感憑證,可能使攻擊者取得對私有儲存庫和開發環境的存取權限。Phantom Labs 的母公司 BeyondTrust 報告稱,OpenAI 已經修復了該漏洞。

這個漏洞凸顯了 AI 程式設計助手中的一個根本性矛盾:它們在執行程式碼和與開發環境互動方面愈來愈強大,其攻擊面也愈來愈大。Codex 不僅僅是產生程式碼建議——它還在積極與開發者工具鏈介面,包括版本控制系統,其中身份驗證 tokens 是關鍵資產。指令注入能夠破壞這些 tokens 的事實表明,傳統的安全漏洞正在透過 AI 系統找到新的攻擊途徑。

雖然最初的報告重點關注了漏洞利用的技術機制,但更廣泛的影響超出了這個單一 bug。每個主要的程式設計助手——從 GitHub Copilot 到 Claude 的程式碼執行——現在都位於開發者和他們最敏感的開發資源之間。該漏洞顯然是透過負責任的披露發現的,但它提出了這樣的問題:這些 AI 系統是否經過充分稽核,以防範注入攻擊和其他安全漏洞,這些漏洞可能會將其不斷增長的能力武器化,反過來攻擊它們本來要幫助的開發者。