Thuật ngữ

TPU ( Tensor Đơn vị xử lý)

Khám phá cách Tensor Đơn vị xử lý (TPU) tăng tốc các tác vụ học máy như đào tạo, suy luận và phát hiện đối tượng với hiệu quả vô song.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

MỘT Tensor Đơn vị xử lý ( TPU ) là một trình tăng tốc học máy được thiết kế riêng được phát triển bởi Google dành riêng cho khối lượng công việc mạng nơ-ron. Các bộ xử lý chuyên dụng này được thiết kế để tăng tốc và mở rộng đáng kể các hoạt động học máy, đặc biệt là đối với các tác vụ suy luận và đào tạo. TPU được thiết kế để xử lý các phép tính toán học phức tạp liên quan đến trí tuệ nhân tạo, mang lại những cải tiến hiệu suất đáng kể so với CPU và GPU cho một số loại mô hình học máy nhất định.

Cái gì là một TPU ?

MỘT TPU là một mạch tích hợp ứng dụng cụ thể (ASIC) được thiết kế từ đầu cho các nhu cầu độc đáo của máy học, đặc biệt là học sâu. Không giống như các bộ xử lý đa năng như CPU hoặc thậm chí GPU có tính linh hoạt và có thể xử lý nhiều tác vụ, TPU được chế tạo có mục đích để vượt trội trong tensor tính toán, các hoạt động toán học cơ bản trong mạng nơ-ron. Tensor là các mảng đa chiều biểu diễn dữ liệu trong các mô hình học máy và TPU được tối ưu hóa để thực hiện tensor đại số ở tốc độ cao và hiệu quả. Chuyên môn hóa này cho phép TPU thực hiện các tác vụ học máy, như đào tạo các mô hình phức tạp hoặc thực hiện suy luận nhanh, nhanh hơn nhiều so với CPU và trong nhiều trường hợp, hiệu quả hơn GPU. Để hiểu thêm về các phép tính cơ bản, bạn có thể khám phá các tài nguyên về học sâumạng nơ-ron .

Ứng dụng của TPU

TPU được sử dụng rộng rãi trong nhiều ứng dụng khác nhau, đặc biệt là những ứng dụng được cung cấp năng lượng bởi Google dịch vụ và ngày càng mở rộng trong các lĩnh vực AI và ML. Một số ứng dụng chính bao gồm:

  • Tăng tốc các mô hình Ultralytics YOLO : TPU có thể tăng tốc đáng kể quá trình suy luận cho các mô hình Ultralytics YOLO , cho phép phát hiện đối tượng nhanh hơn và hiệu quả hơn trong các ứng dụng thời gian thực.
  • Cung cấp năng lượng cho các dịch vụ Google : Nhiều Google sản phẩm, chẳng hạn như Google Tìm kiếm, Google Dịch và Google Ảnh, sử dụng TPU để cung cấp các tính năng do AI điều khiển nhanh chóng và chính xác cho hàng tỷ người dùng. Ví dụ, TPU đóng vai trò quan trọng trong tìm kiếm ngữ nghĩa và nâng cao chất lượng kết quả tìm kiếm.
  • Học máy dựa trên đám mây: Google Cloud cung cấp TPU dưới dạng dịch vụ, cho phép các nhà nghiên cứu và nhà phát triển tận dụng sức mạnh của họ cho khối lượng công việc học máy đòi hỏi khắt khe trên đám mây. Điều này đặc biệt có lợi cho các tác vụ như điều chỉnh siêu tham sốđào tạo phân tán các mô hình lớn.
  • Điện toán biên: Google 'Edge TPU được thiết kế để triển khai trên các thiết bị biên như Raspberry Pi và các hệ thống nhúng khác. Chúng cho phép chạy các mô hình học máy cục bộ trên các thiết bị, tạo điều kiện xử lý thời gian thực và giảm độ trễ, điều này rất quan trọng đối với các ứng dụng như tự động hóa quy trình bằng rô-bốt (RPA)theo dõi đối tượng theo thời gian thực.
  • Phân tích hình ảnh y tế: TPU giúp tăng tốc quá trình xử lý các tác vụ phân tích hình ảnh y tế lớn, hỗ trợ chẩn đoán và lập kế hoạch điều trị nhanh hơn trong chăm sóc sức khỏe.

TPU so với GPU

Mặc dù cả TPU và GPU đều được sử dụng để tăng tốc khối lượng công việc học máy, nhưng chúng có những điểm khác biệt chính:

  • Chuyên môn hóa: TPU có tính chuyên môn hóa cao đối với máy học, đặc biệt là đối với TensorFlow khối lượng công việc, trong khi GPU có mục đích chung hơn và vượt trội trong xử lý song song cho đồ họa và nhiều tác vụ tính toán hơn ngoài máy học.
  • Kiến trúc: TPU có kiến trúc được thiết kế riêng cho phép nhân ma trận và tensor hoạt động, khiến chúng cực kỳ hiệu quả cho các phép tính mạng nơ-ron. GPU, mặc dù cũng là bộ xử lý song song, có kiến trúc linh hoạt hơn được thiết kế để kết xuất đồ họa, thích ứng với máy học.
  • Hiệu suất: Đối với các tác vụ học sâu, đặc biệt là suy luận, TPU thường vượt trội hơn GPU về tốc độ và hiệu quả năng lượng. Tuy nhiên, GPU vẫn linh hoạt và mạnh mẽ cho nhiều tác vụ tính toán và được hỗ trợ bởi hệ sinh thái phần mềm và thư viện rộng hơn.
  • Khả năng tiếp cận: TPU ban đầu bị hạn chế hơn về khả năng tiếp cận nhưng hiện đã có sẵn thông qua Google Đám mây và Edge TPU sản phẩm. GPU có thể được cung cấp rộng rãi từ nhiều nhà cung cấp và nhà cung cấp dịch vụ đám mây khác nhau.

Tóm lại, TPU đại diện cho sự tiến bộ đáng kể trong phần cứng được thiết kế riêng cho nhu cầu học máy hiện đại, mang lại hiệu suất và hiệu quả nâng cao cho nhiều ứng dụng AI, bao gồm cả những ứng dụng tận dụng các mô hình tiên tiến như Ultralytics YOLOv8 .

Đọc tất cả