Zubnet AI学习Wiki › 差分隐私
安全

差分隐私

别名:DP
一种在聚合数据分析和模型训练中保证个人隐私的数学框架。通过差分隐私,添加或移除任何单个个人的数据最多只会以微小的、有界的量改变输出。这意味着你可以从数据集中学习有用的模式,而不泄露其中任何特定人的信息。

为什么重要

随着AI在越来越多的个人数据(健康记录、金融交易、消息)上训练,差分隐私提供了已知的最强保证,确保无法从模型中提取个人数据。它被Apple(键盘预测)、Google(Chrome使用分析)和美国人口普查局所使用。对于AI,它解决了LLM可能记忆并重现私人训练数据的担忧。

深度解析

正式保证:一种机制M是ε-差分隐私的,如果对于任何在一条记录上不同的两个数据集D和D',以及任何输出S:P[M(D) ∈ S] ≤ e^ε · P[M(D') ∈ S]。直觉上:无论某个特定个人的数据是否被包含,输出看起来基本相同。隐私参数ε控制隐私-效用权衡——更小的ε意味着更强的隐私但更嘈杂(更不有用的)输出。

ML训练中的DP

DP-SGD(差分隐私随机梯度下降)在训练期间向梯度添加校准噪声,确保训练好的模型不会记忆单个样本。权衡是:噪声降低模型准确性。对于大型模型和数据集,准确性影响可以很小。对于小数据集,DP可能显著损害性能。实际挑战是选择ε——太小模型无用,太大隐私保证毫无意义。

记忆化问题

LLM可以逐字记忆和重现训练数据——电话号码、电子邮件地址、专有代码。即使没有故意的数据提取,这也是隐私侵犯。预训练期间的差分隐私可以防止这种记忆化,但对在万亿token上训练的模型应用DP在计算上具有挑战性,且可能降低质量。当前实践使用以下组合:训练数据去重、输出过滤和谨慎的数据来源,而非正式的DP保证。随着监管收紧,采用正式隐私保证的压力将增加。

相关概念

← 所有术语
← 工具使用 幻觉 →