Khám phá cách huấn luyện phân tán mở rộng quy mô khối lượng công việc AI trên nhiều GPU. Tìm hiểu cách tăng tốc. Ultralytics Luyện tập YOLO26 với DDP để có kết quả nhanh hơn và chính xác hơn.
Huấn luyện phân tán là một phương pháp trong học máy, trong đó khối lượng công việc huấn luyện mô hình được chia nhỏ cho nhiều bộ xử lý hoặc máy tính. Cách tiếp cận này rất cần thiết để xử lý các tập dữ liệu quy mô lớn và các kiến trúc mạng nơ-ron phức tạp mà nếu không sẽ mất một lượng thời gian không thực tế để huấn luyện trên một thiết bị duy nhất. Bằng cách tận dụng sức mạnh tính toán kết hợp của nhiều Bộ xử lý đồ họa (GPU) hoặc Tensor Với các bộ xử lý trung tâm (TPU), việc huấn luyện phân tán giúp tăng tốc đáng kể chu kỳ phát triển, cho phép các nhà nghiên cứu và kỹ sư lặp lại quy trình nhanh hơn và đạt được độ chính xác cao hơn trong các mô hình của họ.
Ý tưởng cốt lõi đằng sau huấn luyện phân tán là song song hóa. Thay vì xử lý dữ liệu tuần tự trên một chip, nhiệm vụ được chia thành các phần nhỏ hơn và được xử lý đồng thời. Có hai chiến lược chính để đạt được điều này:
Đào tạo phân tán đã làm thay đổi các ngành công nghiệp bằng cách giúp giải quyết những vấn đề mà trước đây không thể thực hiện được về mặt tính toán.
Các ultralytics Thư viện này giúp việc triển khai huấn luyện song song dữ liệu phân tán (DDP) trở nên dễ dàng. Bạn có thể mở rộng quy mô huấn luyện của mình với các thuật toán tiên tiến nhất.
YOLO26 Quản lý mô hình trên nhiều GPU bằng cách đơn giản chỉ định chỉ số thiết bị trong các tham số huấn luyện.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")
# Train the model using two GPUs (device 0 and 1)
# The library automatically handles the DDP communication backend
results = model.train(data="coco8.yaml", epochs=100, device=[0, 1])
Việc phân biệt huấn luyện phân tán với các thuật ngữ tương tự trong hệ sinh thái học máy sẽ giúp hiểu rõ vai trò cụ thể của chúng:
Quản lý cơ sở hạ tầng cho huấn luyện phân tán có thể phức tạp. Các nền tảng hiện đại đơn giản hóa điều này bằng cách cung cấp môi trường được quản lý. Ví dụ, Nền tảng Ultralytics cho phép người dùng quản lý tập dữ liệu và khởi tạo các lần chạy huấn luyện có thể được triển khai trên môi trường đám mây hoặc cụm máy tính cục bộ. Sự tích hợp này giúp đơn giản hóa quy trình làm việc từ chú thích dữ liệu đến triển khai mô hình cuối cùng, đảm bảo việc mở rộng quy mô lên nhiều GPU diễn ra liền mạch nhất có thể. Tương tự, các nhà cung cấp dịch vụ đám mây như Google Cloud Vertex AI và Amazon SageMaker cung cấp cơ sở hạ tầng mạnh mẽ để chạy các tác vụ huấn luyện phân tán ở quy mô doanh nghiệp.