OpenAI 擴展了其 Responses API,提供專為自主代理設計的基礎設施,加入了 shell 工具、內建執行迴圈、託管容器工作空間和網路存取控制。新系統允許模型提議操作——執行指令、查詢資料、從網路獲取資訊——這些操作在受控環境中執行,結果會反覆回饋直到任務完成。與現有僅支援 Python 的程式碼解譯器不同,shell 工具支援 Unix 實用程式,可以執行 Go、Java 或 Node.js 程式。
這是 OpenAI 主導代理基礎設施技術棧的策略。OpenAI 希望開發者依賴其託管解決方案來處理檔案管理、prompt 最佳化、網路存取和重試邏輯,而非建構自己的執行環境。這是聰明的定位——代理是 AI 真正價值創造的地方,但底層管線複雜且有風險。透過抽象化容器化、憑證管理和網路政策,OpenAI 減少了摩擦,同時創造了供應商鎖定。
安全模型既顯示了優勢也暴露了侷限性。憑證透過佔位符替換保留在容器外部,所有網路流量透過集中的政策控制和允許清單路由。但模型只能*提議*工具使用——不能直接執行。這種約束雖然更安全,但可能限制了使代理真正自主的流暢互動模式。執行迴圈設計也引發了對 token 成本和延遲的疑問,因為任務需要多次模型呼叫。
對開發者而言,這可能顯著加速代理開發。不再需要與 Docker 容器、網路安全或執行沙箱搏鬥。但這也意味著你的代理基礎設施完全生活在 OpenAI 的生態系統中——這是開發速度與平台獨立性之間的計算權衡,許多人會樂意接受。
