Thuật ngữ

TPU ( Tensor Đơn vị xử lý)

Khám phá cách Tensor Đơn vị xử lý (TPU) tăng tốc các tác vụ học máy như đào tạo, suy luận và phát hiện đối tượng với hiệu quả vô song.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

MỘT Tensor Đơn vị xử lý ( TPU ) là một bộ tăng tốc học máy được thiết kế riêng do Google phát triển dành riêng cho khối lượng công việc mạng nơ-ron. Các bộ xử lý chuyên dụng này, một loại mạch tích hợp dành riêng cho ứng dụng (ASIC) , được thiết kế để tăng tốc và mở rộng đáng kể các hoạt động học máy, đặc biệt là đối với các tác vụ suy luận và đào tạo. TPU được thiết kế để xử lý các phép tính toán học phức tạp liên quan đến trí tuệ nhân tạo (AI) , mang lại những cải tiến hiệu suất đáng kể so với Bộ xử lý trung tâm (CPU) và thường là Bộ xử lý đồ họa (GPU) đối với một số loại mô hình học máy nhất định. Chúng đặc biệt hiệu quả đối với các phép tính quy mô lớn phổ biến trong học sâu .

Cái gì là một TPU ?

MỘT TPU được xây dựng từ đầu cho các nhu cầu độc đáo của máy học (ML) . Không giống như các bộ xử lý đa năng như CPU hoặc thậm chí GPU xử lý nhiều tác vụ hơn, TPU được xây dựng có mục đích để vượt trội trong tensor tính toán—các hoạt động toán học cơ bản trong mạng nơ-ron (NN) . Tenxơ là các mảng đa chiều biểu diễn dữ liệu trong các mô hình ML và TPU được tối ưu hóa để thực hiện phép nhân ma trận quy mô lớn và các tensor đại số ở tốc độ cao và hiệu quả năng lượng. Chuyên môn hóa này cho phép TPU thực hiện các tác vụ ML nhanh hơn nhiều so với CPU và trong nhiều trường hợp, hiệu quả hơn GPU, đặc biệt là khi làm việc với các khuôn khổ như TensorFlow mà chúng được tối ưu hóa ban đầu. Hỗ trợ cho các khuôn khổ khác như PyTorch cũng khả dụng, mở rộng khả năng sử dụng của chúng. Bạn có thể tìm hiểu thêm về các thông số cụ thể từ Giới thiệu về TPU của Google Cloud .

Ứng dụng của TPU

TPU được sử dụng rộng rãi trong nhiều ứng dụng khác nhau, đặc biệt là những ứng dụng được cung cấp năng lượng bởi Google dịch vụ và ngày càng mở rộng hơn trong các lĩnh vực AI và ML có thể truy cập thông qua các nền tảng như Google Cloud . Các ứng dụng chính bao gồm:

  • Đào tạo mô hình quy mô lớn: TPU rất giỏi trong việc đào tạo các mô hình học sâu khổng lồ đòi hỏi sức mạnh tính toán khổng lồ và thiết lập đào tạo phân tán . Ví dụ, Google sử dụng TPU nội bộ để đào tạo các mô hình tinh vi cho các dịch vụ như Google Tìm kiếm và Google Biên dịch, xử lý các tập dữ liệu lớn và kiến trúc phức tạp.
  • Suy luận khối lượng lớn: Đối với các ứng dụng yêu cầu suy luận nhanh và hiệu quả trên khối lượng dữ liệu lớn, TPU cung cấp khả năng tăng tốc đáng kể. Điều này rất quan trọng đối với các dịch vụ thời gian thực như xử lý ngôn ngữ tự nhiên (NLP) trong chatbot hoặc các tác vụ thị giác máy tính (CV) như phát hiện đối tượng quy mô lớn trong Google Hình ảnh.
  • Nghiên cứu và phát triển: Các nhà nghiên cứu tận dụng TPU thông qua nền tảng đám mây và môi trường như Kaggle (xem hướng dẫn tích hợp Kaggle Ultralytics ) để đẩy nhanh các thí nghiệm và phát triển các mô hình AI tiên tiến, chẳng hạn như các mô hình được sử dụng trong phân tích hình ảnh y tế hoặc mô phỏng khoa học.
  • Điện toán biên: Các phiên bản nhỏ hơn, được gọi là Edge TPU , mang khả năng suy luận ML trực tiếp đến các thiết bị, cho phép các ứng dụng trong IoT và robot yêu cầu độ trễ thấp và xử lý ngoại tuyến. Tìm hiểu thêm về các nguyên tắc điện toán biên .

TPU so với GPU so với CPU

Mặc dù TPU, GPU và CPU đều có thể xử lý tính toán nhưng chúng được thiết kế cho các mục đích khác nhau và thực hiện tốt các nhiệm vụ khác nhau:

  • CPU (Bộ xử lý trung tâm): Bộ não của máy tính tiêu chuẩn, được thiết kế cho các tác vụ tính toán mục đích chung. Nó xử lý các hoạt động của hệ thống, thực hiện các lệnh chương trình theo trình tự và quản lý nhiều khối lượng công việc khác nhau nhưng tương đối chậm đối với các phép tính song song lớn cần thiết trong học sâu. Đọc thêm về so sánh CPU với GPU .
  • GPU (Bộ xử lý đồ họa): Được thiết kế ban đầu để dựng đồ họa, GPU có hàng nghìn lõi được tối ưu hóa cho xử lý song song. Điều này khiến chúng cực kỳ hiệu quả để đào tạo và chạy nhiều mô hình ML, mang lại sự cân bằng tốt giữa hiệu suất và tính linh hoạt trên nhiều tác vụ khác nhau như phát hiện đối tượng với các mô hình YOLO Ultralytics . Các nhà cung cấp chính bao gồm NVIDIAAMD .
  • TPU ( Tensor Processing Unit): Được thiết kế đặc biệt như một bộ xử lý ma trận cho khối lượng công việc của mạng nơ-ron. TPU cung cấp hiệu suất cao nhất và hiệu quả năng lượng cho quy mô lớn tensor hoạt động, đặc biệt là trong Google hệ sinh thái của ( TensorFlow , PyTorch trên Google Cloud ). Chúng có thể kém linh hoạt hơn GPU đối với điện toán song song nói chung nhưng có thể mang lại lợi ích đáng kể về chi phí và tốc độ cho các tác vụ ML cụ thể, quy mô lớn được lưu trữ trên các nền tảng như Google Cloud Platform .

Tóm lại, TPU đại diện cho một bước tiến đáng kể trong phần cứng được thiết kế riêng cho nhu cầu học máy hiện đại, mang lại hiệu suất và hiệu quả nâng cao cho các ứng dụng AI cụ thể, đặc biệt là các công việc đào tạo và suy luận quy mô lớn. Chúng bổ sung cho các bộ tăng tốc khác như GPU, cung cấp các tùy chọn tùy thuộc vào khối lượng công việc, quy mô và hệ sinh thái phần mềm cụ thể. Bạn có thể khám phá các tùy chọn đào tạo, bao gồm tài nguyên đám mây , thông qua các nền tảng như Ultralytics HUB cung cấp khả năng đào tạoquản lý mô hình hợp lý. Để biết thêm thông tin về xu hướng AI, hãy truy cập Blog Ultralytics .

Đọc tất cả