Zubnet AIApprendreWiki › Federated Apprendreing
Training

Federated Apprendreing

FL, Collaborative Apprendreing
Une approche d'entraînement où le modèle est entraîné à travers multiples appareils ou organisations sans partager les données brutes. Au lieu d'envoyer des données à un serveur central, chaque participant entraîne une copie locale du modèle sur ses propres données et envoie seulement les updates du modèle (gradients) à un coordinateur central. Le coordinateur agrège les updates de tous les participants pour améliorer le modèle global.

Pourquoi c'est important

Le federated learning permet l'entraînement IA sur des données qui ne peuvent pas être centralisées à cause de vie privée, régulation ou préoccupations compétitives. Les hôpitaux peuvent entraîner collaborativement un modèle diagnostique sans partager les dossiers patients. Les compagnies peuvent améliorer un modèle partagé sans exposer les données propriétaires. C'est l'approche la plus pratique à l'entraînement IA préservant la vie privée à l'échelle.

Deep Dive

The standard federated learning algorithm (FedAvg): (1) the server sends the current model to selected participants, (2) each participant trains the model on their local data for several steps, (3) participants send their updated model weights (not data) to the server, (4) the server averages the updates and creates a new global model, (5) repeat. The key property: raw data never leaves the participant's device.

Challenges

Non-IID data: participants often have very different data distributions (a hospital in Tokyo has different patient demographics than one in São Paulo). This makes training unstable — updates from different participants may conflict. Communication cost: sending model updates (potentially billions of parameters) over the network is expensive, especially for mobile devices. Free-riders: participants who receive the improved model but contribute low-quality updates. These challenges make federated learning harder than centralized training, though each has active solutions.

Real-World Use

Apple uses federated learning for keyboard prediction (learning from what you type without sending your texts to Apple). Google uses it for search suggestion improvement. Healthcare consortiums use it for multi-hospital model training. The technique is most valuable when: the data is truly sensitive (medical, financial), regulation prevents data sharing (GDPR, HIPAA), or the data is too large to centralize (billions of mobile device interactions).

Concepts liés

← Tous les termes
← Feature Feedforward Network →