OpenAI 扩展了其 Responses API,提供专为自主智能体设计的基础设施,添加了 shell 工具、内置执行循环、托管容器工作空间和网络访问控制。新系统允许模型提议操作——运行命令、查询数据、从互联网获取信息——这些操作在受控环境中执行,结果会迭代反馈直到任务完成。与现有的仅支持 Python 的代码解释器不同,shell 工具支持 Unix 实用程序,可以运行 Go、Java 或 Node.js 程序。

这是 OpenAI 主导智能体基础设施技术栈的策略。OpenAI 希望开发者依赖其托管解决方案来处理文件管理、prompt 优化、网络访问和重试逻辑,而不是构建自己的执行环境。这是聪明的定位——智能体是 AI 真正价值创造的地方,但底层管道复杂且有风险。通过抽象化容器化、凭证管理和网络策略,OpenAI 减少了摩擦,同时创造了供应商锁定。

安全模型既显示了优势也暴露了局限性。凭证通过占位符替换保留在容器外部,所有网络流量通过集中的策略控制和允许列表路由。但模型只能*提议*工具使用——不能直接执行。这种约束虽然更安全,但可能限制了使智能体真正自主的流畅交互模式。执行循环设计也引发了对 token 成本和延迟的疑问,因为任务需要多次模型调用。

对开发者而言,这可能显著加速智能体开发。不再需要与 Docker 容器、网络安全或执行沙箱搏斗。但这也意味着你的智能体基础设施完全生活在 OpenAI 的生态系统中——这是开发速度与平台独立性之间的计算权衡,许多人会乐意接受。