Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Entraînement distribué

Découvrez comment la formation distribuée répartit les charges de travail IA sur plusieurs GPU. Apprenez à accélérer la formation Ultralytics avec DDP pour obtenir des résultats plus rapides et plus précis.

La formation distribuée est une méthode d'apprentissage automatique dans laquelle la charge de travail liée à la formation d'un modèle est répartie entre plusieurs processeurs ou machines. Cette approche est essentielle pour traiter des ensembles de données à grande échelle et des architectures de réseaux neuronaux complexes qui, autrement, prendraient un temps considérable à former sur un seul appareil. En tirant parti de la puissance de calcul combinée de plusieurs processeurs graphiques (GPU) ou unités Tensor (TPU), l'entraînement distribué accélère considérablement le cycle de développement, permettant aux chercheurs et aux ingénieurs d'itérer plus rapidement et d'obtenir une plus grande précision dans leurs modèles.

Comment fonctionne la formation distribuée

L'idée centrale derrière l'entraînement distribué est la parallélisation. Au lieu de traiter les données de manière séquentielle sur une seule puce, la tâche est divisée en petits morceaux qui sont traités simultanément. Il existe deux stratégies principales pour y parvenir :

Applications concrètes

La formation distribuée a transformé les industries en permettant de résoudre des problèmes qui étaient auparavant irréalisables sur le plan informatique.

  • Conduite autonome : le développement de véhicules autonomes sûrs nécessite l'analyse de pétaoctets de données vidéo et de capteurs. Les ingénieurs automobiles utilisent de grands clusters distribués pour entraîner des modèles de vision pour la segmentation sémantique en temps réel et la détection des voies. Cette échelle massive garantit que l' IA des systèmes automobiles peut réagir de manière fiable à diverses conditions routières.
  • Imagerie médicale : dans le secteur de la santé, l'analyse d'images 3D haute résolution telles que les IRM nécessite une mémoire et une puissance de traitement considérables. L'entraînement distribué permet aux chercheurs de créer des outils de diagnostic hautement performants pour la détection des tumeurs et d'autres tâches critiques. En utilisant des frameworks tels que NVIDIA , les hôpitaux peuvent entraîner des modèles sur divers ensembles de données sans rencontrer de goulots d'étranglement en matière de mémoire, améliorant ainsi les résultats de l'IA dans le domaine de la santé.

Utilisation de la formation distribuée avec Ultralytics

Le ultralytics La bibliothèque facilite la mise en œuvre de l'entraînement Distributed Data Parallel (DDP). Vous pouvez adapter votre entraînement à la pointe de la technologie YOLO26 modèles sur plusieurs GPU en spécifiant simplement les indices de périphérique dans vos arguments d'entraînement.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")

# Train the model using two GPUs (device 0 and 1)
# The library automatically handles the DDP communication backend
results = model.train(data="coco8.yaml", epochs=100, device=[0, 1])

Concepts connexes et comparaisons

Il est utile de distinguer la formation distribuée des termes similaires dans l'écosystème de l'apprentissage automatique afin de comprendre leurs rôles spécifiques :

  • Vs. Apprentissage fédéré : bien que les deux impliquent plusieurs appareils, leurs objectifs diffèrent. La formation distribuée centralise généralement les données dans un cluster haute performance afin d'optimiser la vitesse. En revanche, l'apprentissage fédéré maintient les données décentralisées sur les appareils des utilisateurs (comme les smartphones) afin de privilégier la confidentialité des données, en mettant à jour le modèle global sans que les données brutes ne quittent jamais la source.
  • Vs. Calcul haute performance (HPC) : Le HPC est un vaste domaine qui inclut le calcul intensif pour les simulations scientifiques telles que les prévisions météorologiques. L'entraînement distribué est une application spécifique du HPC appliquée aux algorithmes d'optimisation dans l'apprentissage profond. Il s'appuie souvent sur des bibliothèques de communication spécialisées telles que NVIDIA afin de minimiser la latence entre les GPU.

Évolutivité grâce aux plateformes cloud

La gestion de l'infrastructure pour la formation distribuée peut être complexe. Les plateformes modernes simplifient cette tâche en proposant des environnements gérés. Par exemple, la Ultralytics permet aux utilisateurs de gérer des ensembles de données et de lancer des cycles de formation pouvant être déployés dans des environnements cloud ou des clusters locaux. Cette intégration rationalise le flux de travail, depuis l' annotation des données jusqu'au déploiement final du modèle, en garantissant une mise à l'échelle vers plusieurs GPU aussi fluide que possible. De même, les fournisseurs de cloud tels que Google Vertex AI et Amazon SageMaker fournissent une infrastructure robuste pour exécuter des tâches de formation distribuées à l'échelle de l'entreprise.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant