Thuật ngữ

GPU (Bộ xử lý đồ họa)

Khám phá cách GPU cách mạng hóa AI và máy học bằng cách tăng tốc học sâu, tối ưu hóa quy trình làm việc và cho phép các ứng dụng thực tế.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

Một đơn vị xử lý đồ họa ( GPU ) là một mạch điện tử chuyên dụng ban đầu được thiết kế để tăng tốc quá trình tạo và kết xuất hình ảnh, video và hoạt ảnh. Mặc dù GPU có nguồn gốc từ ngành công nghiệp thiết kế đồ họa và trò chơi, nhưng kiến trúc độc đáo của chúng đã biến chúng thành công cụ không thể thiếu trong Trí tuệ nhân tạo (AI) và Học máy (ML) hiện đại. GPU sở hữu hàng nghìn lõi xử lý hoạt động song song, cho phép chúng xử lý khối lượng lớn phép tính cùng lúc. Khả năng này đặc biệt phù hợp với các tác vụ đòi hỏi tính toán cao trong các thuật toán học sâu , cho phép đào tạo mô hình nhanh hơn và suy luận hiệu quả theo thời gian thực . Việc hiểu được quá trình phát triển của GPU sẽ cung cấp bối cảnh cho vai trò hiện tại của nó trong AI.

Tầm quan trọng trong AI và Học máy

Khả năng xử lý song song của GPU là chất xúc tác chính cho những đột phá gần đây trong AI. Đào tạo mạng nơ-ron sâu liên quan đến việc xử lý các tập dữ liệu khổng lồ và thực hiện vô số phép toán phức tạp, chẳng hạn như phép nhân ma trận . GPU vượt trội trong các phép toán này, cắt giảm đáng kể thời gian cần thiết để đào tạo các mô hình so với Bộ xử lý trung tâm (CPU) truyền thống. Sự tăng tốc này trao quyền cho các nhà nghiên cứu và nhà phát triển trong lĩnh vực phát triển AI để lặp lại nhanh hơn, thử nghiệm với các mô hình lớn hơn và phức tạp hơn, và đạt được độ chính xác cao hơn trong các tác vụ như phát hiện đối tượngphân đoạn hình ảnh .

Sau đây là hai ví dụ về GPU trong các ứng dụng AI/ML thực tế:

  1. Phát hiện đối tượng theo thời gian thực: Các mô hình YOLO Ultralytics , được biết đến với tốc độ và hiệu quả, phụ thuộc rất nhiều vào GPU để thực hiện phát hiện đối tượng theo thời gian thực cho các ứng dụng như lái xe tự động, giám sát an ninh ( tăng cường hệ thống an ninh ) và robot. Bản chất song song của GPU cho phép các mô hình này xử lý các khung hình video nhanh chóng và xác định chính xác nhiều đối tượng cùng lúc. Khám phá các ứng dụng YOLO11 đa dạng được hỗ trợ bởi GPU sự gia tốc.
  2. Đào tạo mô hình lớn: Đào tạo các mô hình ngôn ngữ lớn (LLM) hoặc các mô hình thị giác máy tính phức tạp thường đòi hỏi sức mạnh tính toán đáng kể, thường được truy cập thông qua các nền tảng điện toán đám mây . Các dịch vụ như Ultralytics HUB Cloud Training tận dụng sức mạnh GPU các cụm từ các nhà cung cấp như AWS , Google CloudAzure để đào tạo các mô hình trên các tập dữ liệu lớn cho các tác vụ từ xử lý ngôn ngữ tự nhiên (NLP) đến phân tích hình ảnh y tế nâng cao.

Sự khác biệt chính giữa CPU và TPU

Mặc dù GPU, CPUBộ xử lý Tensor (TPU) đều là các loại bộ xử lý, nhưng chúng có điểm mạnh khác nhau và được tối ưu hóa cho các tác vụ khác nhau:

  • CPU (Bộ xử lý trung tâm): Được thiết kế cho mục đích tính toán chung, vượt trội trong các tác vụ tuần tự và quản lý hoạt động hệ thống. CPU có một số lõi mạnh mẽ được tối ưu hóa cho độ trễ thấp. Xem tổng quan về CPU so với GPU .
  • GPU (Bộ xử lý đồ họa): Được tối ưu hóa cho các hoạt động song song với hàng nghìn lõi đơn giản hơn. Lý tưởng cho các tác vụ có thể được chia nhỏ và xử lý đồng thời, như kết xuất đồ họa và đào tạo các mô hình học sâu. Hiệu suất được đo lường thường liên quan đến các số liệu như FLOPS .
  • TPU (Bộ xử lý Tensor ): Google Mạch tích hợp ứng dụng cụ thể (ASIC) được thiết kế riêng để tăng tốc khối lượng công việc học máy bằng cách sử dụng khuôn khổ TensorFlow . Chúng được tối ưu hóa cao cho các hoạt động ma trận quy mô lớn phổ biến trong mạng nơ-ron. Tìm hiểu thêm từ chi tiết TPU của Google .

GPU tạo ra sự cân bằng giữa hiệu suất cao cho các tác vụ xử lý song song và tính linh hoạt trên nhiều ứng dụng khác nhau, khiến chúng trở thành lựa chọn phổ biến cho nhiều khối lượng công việc AI và điện toán hiệu suất cao (HPC) .

Hệ sinh thái và sử dụng

Việc áp dụng rộng rãi GPU trong AI được hỗ trợ bởi hệ sinh thái phần mềm mạnh mẽ. Các nhà sản xuất lớn như NVIDIAAMD cung cấp GPU phù hợp cho các tác vụ AI. NVIDIA Nền tảng CUDA (Compute Unified Device Architecture) là một nền tảng điện toán song song được sử dụng rộng rãi và mô hình lập trình cho NVIDIA GPU. Các khuôn khổ học sâu như PyTorch và TensorFlow được tối ưu hóa để tận dụng GPU tăng tốc. Thiết lập môi trường cho GPU - phát triển nhanh có thể được sắp xếp hợp lý bằng cách sử dụng các công cụ chứa như Docker; tham khảo Ultralytics Hướng dẫn khởi động nhanh Docker để biết hướng dẫn thiết lập. Triển khai mô hình hiệu quả thường liên quan đến việc tối ưu hóa các mô hình để chạy hiệu quả trên mục tiêu GPU phần cứng. Khám phá nhiều giải pháp Ultralytics khác nhau tận dụng GPU quyền lực.

Đọc tất cả