Zubnet AIApprendreWiki › Differential Privacy
Safety

Differential Privacy

DP
Un framework mathématique qui garantit la vie privée individuelle dans l'analyse de données agrégées et l'entraînement de modèles. Avec la differential privacy, ajouter ou enlever les données d'un seul individu change la sortie d'au plus une petite quantité bornée. Ça veut dire que tu peux apprendre des patterns utiles d'un dataset sans révéler de l'info sur une personne spécifique dedans.

Pourquoi c'est important

Pendant que l'IA s'entraîne sur des données de plus en plus personnelles (dossiers médicaux, transactions financières, messages), la differential privacy fournit la garantie la plus forte connue que les données individuelles ne peuvent pas être extraites du modèle. Elle est utilisée par Apple (prédictions de clavier), Google (analytics d'usage Chrome) et le Bureau du Recensement US. Pour l'IA, elle adresse la préoccupation que les LLM pourraient mémoriser et reproduire des données d'entraînement privées.

Deep Dive

The formal guarantee: a mechanism M is ε-differentially private if for any two datasets D and D' that differ in one record, and any output S: P[M(D) ∈ S] ≤ e^ε · P[M(D') ∈ S]. Intuitively: the output looks essentially the same whether or not any specific individual's data is included. The privacy parameter ε controls the privacy-utility trade-off — smaller ε means stronger privacy but noisier (less useful) outputs.

DP in ML Training

DP-SGD (Differentially Private Stochastic Gradient Descent) adds calibrated noise to gradients during training, ensuring the trained model doesn't memorize individual examples. The trade-off: noise reduces model accuracy. For large models and datasets, the accuracy impact can be small. For small datasets, DP can significantly hurt performance. The practical challenge is choosing ε — too small and the model is useless, too large and privacy guarantees are meaningless.

The Memorization Problem

LLMs can memorize and reproduce training data verbatim — phone numbers, email addresses, proprietary code. This is a privacy violation even without intentional data extraction. Differential privacy during pre-training would prevent this memorization, but applying DP to models trained on trillions of tokens is computationally challenging and can degrade quality. Current practice uses a combination of: training data deduplication, output filtering, and careful data sourcing rather than formal DP guarantees. As regulation tightens, the pressure to adopt formal privacy guarantees will increase.

Concepts liés

← Tous les termes
← Developer Outils Diffusion Model →