Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

GPU (Bộ xử lý đồ họa)

Tìm hiểu cách GPU tăng tốc Trí tuệ nhân tạo và Học sâu. Khám phá sức mạnh của điện toán song song trong huấn luyện. Ultralytics Mô hình YOLO26 và tối ưu hóa suy luận thời gian thực.

Bộ xử lý đồ họa (GPU) GPU GPU (Bộ xử lý đồ họa) là một mạch điện tử chuyên dụng ban đầu được thiết kế để tăng tốc quá trình xử lý và tạo hình ảnh trong bộ đệm khung hình để xuất ra màn hình. Mặc dù nguồn gốc của chúng nằm ở việc kết xuất đồ họa máy tính cho trò chơi và hình ảnh hóa chuyên nghiệp, GPU đã phát triển thành động cơ cơ bản của Trí tuệ Nhân tạo (AI) hiện đại. Không giống như bộ xử lý tiêu chuẩn sử dụng một vài lõi mạnh mẽ để xử lý các tác vụ tuần tự, GPU có khả năng xử lý đa nhiệm. GPU Kiến trúc này bao gồm hàng nghìn lõi nhỏ hơn, hiệu quả hơn, được thiết kế để xử lý nhiều tác vụ đồng thời. Khả năng này, được gọi là điện toán song song , giúp chúng hoạt động cực kỳ hiệu quả đối với các phép toán ma trận và vectơ khổng lồ, vốn là nền tảng của Học sâu (Deep Learning - DL)các Mạng thần kinh phức tạp (Neural Networks - NN) .

Tăng tốc khối lượng công việc AI

Lý do chính khiến GPU trở nên không thể thiếu đối với Học máy (ML) là khả năng thực hiện các phép nhân ma trận tốc độ cao. Các framework học sâu như PyTorchTensorFlow được tối ưu hóa đặc biệt để tận dụng khả năng tăng tốc phần cứng này. Điều này giúp giảm đáng kể thời gian huấn luyện mô hình , thường biến những gì lẽ ra mất hàng tuần tính toán trên bộ xử lý thông thường thành vài giờ trên GPU. GPU Hiệu suất tính toán của các thiết bị này thường được đo bằng FLOPS (Số phép toán dấu phẩy động mỗi giây), một chỉ số quan trọng để đánh giá khả năng của phần cứng trong việc đáp ứng các yêu cầu khắt khe của các mô hình hiện đại như YOLO26 .

Sự khác biệt về phần cứng: GPU so với CPU so với TPU

Để hiểu rõ hơn về bối cảnh phần cứng, việc phân biệt các yếu tố sau là rất hữu ích: GPU từ các đơn vị xử lý khác:

  • CPU (Bộ xử lý trung tâm) : "Bộ não" đa năng của máy tính. CPU hoạt động xuất sắc trong xử lý tuần tự và phân nhánh logic phức tạp, nhưng lại kém hiệu quả hơn đối với khả năng xử lý song song quy mô lớn cần thiết cho việc huấn luyện trí tuệ nhân tạo trên quy mô lớn.
  • GPU (Bộ xử lý đồ họa) : Tiêu chuẩn công nghiệp cho việc huấn luyện và suy luận. Các nhà sản xuất hàng đầu như NVIDIA sử dụng hệ sinh thái phần mềm như CUDA để cho phép các nhà phát triển lập trình. GPU trực tiếp cho mục đích tính toán đa năng.
  • TPU ( Tensor Processing Unit) : Một mạch tích hợp chuyên dụng (ASIC) được phát triển đặc biệt cho học máy mạng nơ-ron. Mặc dù rất hiệu quả cho các ứng dụng cụ thể, TPU (Tensor Processing Unit) là một ứng dụng chuyên dụng. tensor Tuy nhiên, chúng kém linh hoạt hơn GPU trong các tác vụ tính toán đa dạng.

Các Ứng dụng Thực tế

Việc ứng dụng GPU hiệu năng cao đã thúc đẩy sự đổi mới trong nhiều ngành công nghiệp khác nhau:

  • Xe tự lái : Xe tự lái phải xử lý hàng gigabyte dữ liệu từ camera, radar và cảm biến LiDAR mỗi giây. GPU cho phép suy luận thời gian thực , giúp máy tính trên xe chạy các mô hình phát hiện đối tượng , nhận diện người đi bộ, biển báo giao thông và chướng ngại vật ngay lập tức.
  • Phân tích hình ảnh y tế : Trong lĩnh vực chăm sóc sức khỏe, GPU giúp tăng tốc quá trình xử lý các hình ảnh quét độ phân giải cao như MRI và CT. Chúng cho phép các thuật toán phân đoạn hình ảnh phức tạp xác định chính xác các khối u hoặc cơ quan, hỗ trợ các bác sĩ X quang đưa ra chẩn đoán nhanh hơn và chính xác hơn mà không cần chỉ dựa vào việc kiểm tra thủ công.

Huấn luyện với GPU

Khi sử dụng ultralytics gói, sử dụng một GPU Thư viện này rất dễ sử dụng và được đánh giá cao về hiệu quả công việc. Nó hỗ trợ tự động phát hiện thiết bị, nhưng người dùng cũng có thể chỉ định thiết bị một cách rõ ràng.

Ví dụ sau đây minh họa cách huấn luyện mô hình YOLO26 trên dữ liệu đầu tiên có sẵn. GPU :

from ultralytics import YOLO

# Load the YOLO26n model
model = YOLO("yolo26n.pt")

# Train the model on the first available GPU (device=0)
# This significantly accelerates training compared to CPU usage
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, device=0)

Triển khai và Tối ưu hóa

Ngoài việc huấn luyện, GPU đóng vai trò quan trọng trong việc triển khai mô hình . Để tối đa hóa hiệu quả trong quá trình suy luận, các mô hình thường được chuyển đổi sang các định dạng tối ưu hóa như TensorRT , giúp tái cấu trúc mạng nơ-ron để phù hợp hoàn hảo với các yêu cầu cụ thể. GPU kiến trúc, giảm độ trễ. Đối với các nhà phát triển không có quyền truy cập vào phần cứng cao cấp tại chỗ, Nền tảng Ultralytics cung cấp các giải pháp dựa trên đám mây để quản lý tập dữ liệu và huấn luyện mô hình trên các máy chủ từ xa mạnh mẽ. GPU các cụm. Khả năng truy cập này thúc đẩy sự đổi mới trong Trí tuệ nhân tạo biên (Edge AI) , cho phép triển khai các tác vụ Thị giác máy tính (CV) phức tạp trên các thiết bị nhỏ hơn, tiết kiệm năng lượng tại hiện trường.

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay