Thuật ngữ

TPU (Bộ xử lý Tensor)

Khám phá cách Bộ xử lý Tensor (TPU) tăng tốc các tác vụ học máy như đào tạo, suy luận và phát hiện đối tượng với hiệu quả vô song.

Bộ xử lý Tensor, hay TPU, là một loại bộ tăng tốc phần cứng được Google phát triển riêng cho các khối lượng công việc học máy (ML) và học sâu . Các mạch tích hợp dành riêng cho ứng dụng (ASIC) này được thiết kế để tăng tốc đáng kể các phép tính tensor và ma trận, vốn là nền tảng cho việc huấn luyện và vận hành mạng nơ- ron. TPU được thiết kế để mang lại hiệu suất cao và hiệu quả năng lượng cho các tác vụ học máy quy mô lớn, khiến chúng trở thành một thành phần quan trọng trong cơ sở hạ tầng AI hiện đại.

TPU hoạt động như thế nào

TPU được thiết kế để xử lý khối lượng tính toán khổng lồ mà các mô hình AI yêu cầu. Kiến trúc của chúng được tối ưu hóa cao cho phép toán cốt lõi trong mạng nơ-ron: phép nhân ma trận. Không giống như các bộ xử lý đa năng, TPU tập trung vào phép tính số học thông lượng cao, độ chính xác thấp, rất phù hợp với bản chất của các mô hình học sâu . Bằng cách xử lý các lô dữ liệu khổng lồ song song, chúng có thể giảm đáng kể thời gian cần thiết cho cả việc huấn luyện mô hìnhsuy luận thời gian thực . Chúng thường được truy cập thông qua Google Cloud Platform và được tích hợp chặt chẽ với các nền tảng học máy (ML) như TensorFlowPyTorch .

Ứng dụng trong thế giới thực

TPU đóng vai trò quan trọng trong việc cung cấp năng lượng cho một số ứng dụng AI đòi hỏi khắt khe nhất hiện nay.

  1. Đào tạo Mô hình Ngôn ngữ Lớn (LLM): Google sử dụng các cụm TPU lớn, được gọi là TPU Pod, để đào tạo các mô hình nền tảng tiên tiến nhất của mình, bao gồm các mô hình đằng sau công cụ tìm kiếm và AI đàm thoại như Gemini. Khả năng tính toán song song khổng lồ của TPU Pod cho phép họ đào tạo các mô hình với hàng nghìn tỷ tham số chỉ trong một phần nhỏ thời gian so với các phần cứng khác.
  2. Hỗ trợ Dịch vụ Google: TPU được sử dụng để suy luận trên nhiều sản phẩm của Google. Ví dụ: trong Google Photos, chúng cho phép nhận dạng hình ảnh nhanh chóng để tìm kiếm người, vật thể và cảnh. Tương tự, chúng hỗ trợ dịch thuật thời gian thực trong Google Dịch và được sử dụng để nhận dạng giọng nói trong Google Assistant. DeepMind cũng nổi tiếng với việc sử dụng TPU để huấn luyện AlphaGo, AI đã đánh bại kỳ thủ cờ vây hàng đầu thế giới.

TPU so với GPU so với CPU

Mặc dù TPU, GPU và CPU đều là bộ xử lý, nhưng chúng được thiết kế cho những mục đích rất khác nhau.

  • CPU (Bộ xử lý trung tâm) : "Bộ não" của máy tính, được thiết kế cho các tác vụ đa năng. CPU có khả năng xử lý tuần tự nhiều loại lệnh khác nhau, khiến nó trở nên thiết yếu để chạy hệ điều hành và phần mềm tiêu chuẩn, nhưng kém hiệu quả hơn đối với các phép tính song song khổng lồ trong AI.
  • GPU (Bộ xử lý đồ họa) : Ban đầu được tạo ra để kết xuất đồ họa, kiến trúc của GPU chứa hàng nghìn lõi, giúp nó cực kỳ hiệu quả trong xử lý song song. GPU từ các công ty như NVIDIAAMD mang lại sự cân bằng tuyệt vời giữa hiệu suất và tính linh hoạt, khiến chúng trở nên phổ biến cho các mô hình đào tạo như Ultralytics YOLO11 .
  • TPU: Một bộ tăng tốc chuyên dụng cao cấp do Google phát triển dành riêng cho khối lượng công việc mạng nơ-ron . Mặc dù kém linh hoạt hơn GPU trong tính toán tổng quát, TPU mang lại hiệu suất trên mỗi watt vượt trội cho các hoạt động tensor quy mô lớn. Điều này khiến nó trở thành một lựa chọn tuyệt vời cho việc triển khai và đào tạo mô hình quy mô lớn, đặc biệt là khi sử dụng hệ sinh thái đám mây của Google.

Vai trò của TPU trong hệ sinh thái Ultralytics

Người dùng Ultralytics có thể tận dụng TPU để đẩy nhanh các dự án thị giác máy tính của họ. Các mô hình có thể được xuất sang các định dạng tương thích với TPU, chẳng hạn như TensorFlow Lite cho Edge TPU của Google . Điều này cho phép triển khai hiệu quả cao trên các thiết bị biên như Coral Dev Board . Đối với các công việc đào tạo quy mô lớn, các nền tảng như Ultralytics HUB có thể điều phối đào tạo trên nhiều tài nguyên điện toán đám mây khác nhau, cho phép người dùng khai thác sức mạnh của TPU cho các tập dữ liệu tùy chỉnh của họ. Sự tích hợp này tạo điều kiện thuận lợi cho toàn bộ vòng đời MLOps , từ đào tạo đến triển khai và giám sát.

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, cộng tác và phát triển với những nhà đổi mới toàn cầu

Tham gia ngay
Liên kết đã được sao chép vào clipboard