Glossaire

Apprentissage fédéré

Découvre l'apprentissage fédéré : une approche de l'IA axée sur la protection de la vie privée permettant l'entraînement décentralisé des modèles sur l'ensemble des appareils sans partager les données brutes.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

L'apprentissage fédéré est une technique d'apprentissage machine (ML) qui permet d'entraîner des modèles sur plusieurs appareils ou serveurs décentralisés détenant des échantillons de données locales, sans échanger les données brutes elles-mêmes. Cette approche répond aux préoccupations essentielles concernant la confidentialité des données, la sécurité et les droits d'accès, en permettant la collaboration sur l'entraînement des modèles à l'aide de données qui ne peuvent ou ne doivent pas être collectées de manière centralisée. Contrairement à la formation centralisée traditionnelle où les données sont agrégées, l'apprentissage fédéré amène le processus de formation à l'emplacement des données, souvent sur les appareils Edge AI.

Concepts fondamentaux de l'apprentissage fédéré

L'apprentissage fédéré fonctionne grâce à un processus collaboratif et itératif géré par un coordinateur central (serveur) :

  1. Distribution du modèle : Le serveur central initialise un modèle global (comme un modèle Ultralytics YOLO pour la détection d'objets) et le distribue aux appareils clients ou aux silos de données participants.
  2. Formation locale : Chaque client entraîne le modèle reçu à l'aide de ses données locales pendant quelques itérations. Comme les données ne quittent jamais le client, la confidentialité est préservée. Cette formation locale utilise généralement des techniques standard d'apprentissage profond (DL).
  3. Agrégation des mises à jour : Les clients n'envoient que les mises à jour du modèle (par exemple, les poids ou les gradients appris) au serveur central, et non les données sous-jacentes. Ces mises à jour sont souvent sécurisées à l'aide de techniques telles que la confidentialité différentielle ou l'agrégation sécurisée.
  4. Mise à jour du modèle global : le serveur agrège les mises à jour reçues (par exemple, en calculant une moyenne) pour améliorer le modèle global.
  5. Itération : Ce cycle se répète, améliorant progressivement le modèle global avec les connaissances apprises chez tous les clients participants, sans compromettre la confidentialité des données brutes. Google AI donne un aperçu de ses recherches et de ses applications en matière d'apprentissage fédéré.

Bien que lié à la formation distribuée, l'apprentissage fédéré suppose spécifiquement que les données ne sont pas IID (non distribuées de manière identique et indépendante), qu'elles sont décentralisées de par leur conception et que la préservation de la vie privée est un principe fondamental.

Applications de l'apprentissage fédéré

L'apprentissage fédéré est particulièrement utile dans les scénarios impliquant des données sensibles ou distribuées :

  • Prédiction de clavier intelligent : Les claviers de téléphone portable (comme Gboard de Google) utilisent l'apprentissage fédéré pour améliorer les suggestions de texte prédictif en fonction des habitudes de frappe de l'utilisateur sur de nombreux appareils, sans envoyer les frappes individuelles à des serveurs centraux. Cela améliore l'expérience de l'utilisateur tout en protégeant sa vie privée.
  • Santé : Les hôpitaux peuvent collaborer pour former des modèles de diagnostic, tels que ceux de l'analyse d'images médicales, en utilisant les données des patients réparties entre les établissements. Cela permet d'obtenir des modèles plus robustes formés sur des populations diverses sans violer les réglementations relatives à la confidentialité des patients telles que l'HIPAA. En savoir plus sur l'apprentissage fédéré pour l'informatique de santé. Ultralytics explore des domaines similaires dans ses solutions d'IA dans le domaine de la santé.

Avantages de l'apprentissage fédéré

  • Amélioration de la confidentialité des données : Les données brutes restent sur les appareils locaux, ce qui réduit considérablement les risques de confidentialité associés aux violations de données ou aux utilisations abusives.
  • Réduction des coûts de communication : Seules les mises à jour de modèles, qui sont généralement plus petites que les ensembles de données brutes, sont transmises, ce qui permet d'économiser la bande passante.
  • Accès à des données diverses : Permet la formation sur de grands ensembles de données hétérogènes répartis entre les utilisateurs ou les organisations, ce qui peut conduire à des modèles plus robustes et plus généralisables, moins enclins à l'overfitting.
  • Conformité réglementaire : Aide les organisations à se conformer aux réglementations strictes en matière de gouvernance des données et de confidentialité (par exemple, GDPR, CCPA).

Les défis de l'apprentissage fédéré

  • Goulots d'étranglement de la communication : Les communications fréquentes entre le serveur et de nombreux clients peuvent être lentes et coûteuses, surtout si les réseaux ne sont pas fiables.
  • Hétérogénéité du système : Les clients ont souvent des capacités matérielles, une connectivité réseau et une disponibilité électrique variables, ce qui complique la formation synchrone. Des cadres tels que TensorFlow Federated visent à gérer cela.
  • Hétérogénéité statistique : Les données des clients sont souvent non IID, c'est-à-dire qu'elles ne suivent pas la même distribution, ce qui peut remettre en question la convergence et la performance des modèles.
  • Problèmes de sécurité : Tout en améliorant la confidentialité, le système peut toujours être vulnérable à des attaques adverses spécifiques ciblant les mises à jour de modèles ou le processus d'agrégation, ce qui nécessite de solides mesures de sécurité des données. Les communautés de ML préservant la vie privée, comme OpenMined, s'efforcent de résoudre ces problèmes.

Malgré ces défis, l'apprentissage fédéré représente une avancée significative en matière d'intelligence artificielle (IA) préservant la vie privée. Des plateformes comme Ultralytics HUB peuvent faciliter le déploiement et la gestion des modèles, y compris ceux potentiellement développés à l'aide d'approches fédérées. Tu peux explorer diverses options de déploiement de modèles dans la documentation d'Ultralytics . Une discussion plus approfondie sur la combinaison de la FL avec d'autres techniques se trouve dans l'article de blog sur l'apprentissage actif qui accélère le développement de la vision par ordinateur.

Tout lire