GitGuardian 最新的安全报告显示,2025 年在 GitHub 公共仓库中泄露了 2865 万个硬编码机密,标志着暴露的 API 密钥、密码和访问令牌又一年的爆炸性增长。这家安全公司发现,AI 辅助代码的凭据暴露率比传统开发更高,因为团队快速将数十种新的 AI 服务——每种都需要身份验证——集成到他们的工作流程中。内部仓库现在包含大部分泄露的凭据,通常具有生产系统的直接访问权限。
AI 开发的爆发从根本上改变了开发人员处理机密的方式。过去团队只需管理少数几个数据库连接和云服务,现在他们要处理模型提供商、向量数据库、代理框架、编排层和检索系统的凭据。每个新的 AI 工具都意味着另一个需要存储、共享并不可避免地泄露的 API 密钥。这种模式反映了 AI 开发中更广泛的速度问题:团队发布的速度超过了他们的安全实践的扩展能力。
虽然 GitGuardian 的数据专注于仓库暴露,但真正的问题远远超出了代码范围。报告显示,当团队实时排查 AI 集成问题时,凭据通过 Slack 频道、Jira 工单和 Confluence 页面传播。自托管的 GitLab 实例和 Docker 注册表——在 AI 基础设施中很常见——包含大量凭据缓存,这些通常逃脱标准安全扫描。最令人担忧的是:暴露的凭据保持有效数年,为攻击者提供对生产系统的持续访问。
对于构建 AI 应用程序的开发人员来说,这不仅仅是一个安全故事——这是一个工作流程警钟。在没有适当机密管理的情况下急于集成每个新的 AI API 会产生每天累积的技术债务。团队需要凭据轮换政策、CI/CD 管道中的自动机密检测,坦率地说,需要减少在深夜调试会话中在 Slack 频道里流传的 API 密钥。
