Découvrez comment la formation distribuée répartit les charges de travail IA sur plusieurs GPU. Apprenez à accélérer la formation Ultralytics avec DDP pour obtenir des résultats plus rapides et plus précis.
La formation distribuée est une méthode d'apprentissage automatique dans laquelle la charge de travail liée à la formation d'un modèle est répartie entre plusieurs processeurs ou machines. Cette approche est essentielle pour traiter des ensembles de données à grande échelle et des architectures de réseaux neuronaux complexes qui, autrement, prendraient un temps considérable à former sur un seul appareil. En tirant parti de la puissance de calcul combinée de plusieurs processeurs graphiques (GPU) ou unités Tensor (TPU), l'entraînement distribué accélère considérablement le cycle de développement, permettant aux chercheurs et aux ingénieurs d'itérer plus rapidement et d'obtenir une plus grande précision dans leurs modèles.
L'idée centrale derrière l'entraînement distribué est la parallélisation. Au lieu de traiter les données de manière séquentielle sur une seule puce, la tâche est divisée en petits morceaux qui sont traités simultanément. Il existe deux stratégies principales pour y parvenir :
La formation distribuée a transformé les industries en permettant de résoudre des problèmes qui étaient auparavant irréalisables sur le plan informatique.
Le ultralytics La bibliothèque facilite la mise en œuvre de l'entraînement Distributed Data Parallel (DDP).
Vous pouvez adapter votre entraînement à la pointe de la technologie
YOLO26 modèles sur plusieurs GPU en spécifiant simplement les
indices de périphérique dans vos arguments d'entraînement.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")
# Train the model using two GPUs (device 0 and 1)
# The library automatically handles the DDP communication backend
results = model.train(data="coco8.yaml", epochs=100, device=[0, 1])
Il est utile de distinguer la formation distribuée des termes similaires dans l'écosystème de l'apprentissage automatique afin de comprendre leurs rôles spécifiques :
La gestion de l'infrastructure pour la formation distribuée peut être complexe. Les plateformes modernes simplifient cette tâche en proposant des environnements gérés. Par exemple, la Ultralytics permet aux utilisateurs de gérer des ensembles de données et de lancer des cycles de formation pouvant être déployés dans des environnements cloud ou des clusters locaux. Cette intégration rationalise le flux de travail, depuis l' annotation des données jusqu'au déploiement final du modèle, en garantissant une mise à l'échelle vers plusieurs GPU aussi fluide que possible. De même, les fournisseurs de cloud tels que Google Vertex AI et Amazon SageMaker fournissent une infrastructure robuste pour exécuter des tâches de formation distribuées à l'échelle de l'entreprise.