용어집

TPU (Tensor 처리 단위)

Google 의 TPU가 탁월한 속도, 에너지 효율성, 최적화된 TensorFlow 성능으로 머신 러닝을 가속화하는 방법을 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

Tensor 처리 장치(TPU)는 머신 러닝 워크로드 가속화를 위해 특별히 Google 에서 개발한 맞춤형 애플리케이션별 집적 회로(ASIC)입니다. TPU는 특히 다차원 데이터 배열인 텐서와 관련된 작업에서 신경망에 필요한 빠른 대용량 계산을 수행하도록 설계되었습니다. 이러한 프로세서는 딥 러닝 모델의 훈련과 추론의 기본이 되는 행렬 연산을 처리하는 데 탁월하여 이러한 특정 작업에서 범용 CPU나 심지어 GPU보다 훨씬 빠르고 전력 효율이 높습니다.

TPU의 주요 특징 및 이점

TPU는 높은 연산 처리량과 낮은 정밀도 연산에 최적화되어 있으므로 많은 머신 러닝 애플리케이션에서 정확도의 큰 손실 없이 낮은 정밀도로 계산을 수행할 수 있습니다. 이러한 접근 방식을 통해 TPU는 더 적은 전력을 소비하면서 초당 더 많은 연산을 처리할 수 있습니다. TPU의 아키텍처는 TensorFlow, Google 의 오픈 소스 머신 러닝 프레임워크의 성능을 가속화하도록 특별히 맞춤화되어 있지만, 적절한 소프트웨어 인터페이스를 통해 다른 프레임워크와도 사용할 수 있습니다.

  • 특수 하드웨어: TPU는 행렬 곱셈 및 덧셈과 같이 머신 러닝에서 흔히 사용되는 특정 유형의 계산을 처리하도록 제작되었습니다.
  • 높은 처리량: 대량의 데이터를 매우 빠르게 처리할 수 있어 대규모 모델을 학습하거나 대규모 추론 요청을 처리하는 데 이상적입니다.
  • 에너지 효율성: TPU는 머신 러닝 워크로드에 대해 기존 프로세서보다 에너지 효율이 더 높도록 설계되어 운영 비용과 환경에 미치는 영향을 줄입니다.

TPU와 CPU 및 GPU 비교

CPU는 다양한 작업을 처리할 수 있는 범용 프로세서이고 GPU는 특히 그래픽과 게임에서 병렬 처리에 특화되어 있는 반면, TPU는 머신러닝 작업에 고유하게 최적화되어 있습니다. GPU에 비해 TPU는 특정 유형의 머신 러닝 계산에 대해 더 높은 연산 처리량을 제공합니다. 따라서 크고 복잡한 모델을 훈련하거나 대규모 데이터 세트에 대한 추론을 수행해야 하는 애플리케이션에 특히 유용합니다. 그러나 GPU는 머신 러닝 외에도 더 광범위한 애플리케이션에 더 다양하게 활용될 수 있습니다. 자세히 알아보기 TensorFlowTPU와 함께 자주 사용되는 프레임워크입니다.

TPU의 응용 분야

TPU는 다양한 영역에서 적용되어 머신 러닝 작업을 가속화하는 데 효과적임을 입증했습니다. 주목할 만한 두 가지 예는 다음과 같습니다:

  1. Google 검색: Google 에서는 TPU를 사용하여 웹 페이지를 보다 효율적으로 처리하고 순위를 매겨 검색 결과의 속도와 정확도를 개선합니다. 여기에는 복잡한 자연어 처리 및 이해 작업이 포함되며, TPU의 가속화된 처리 기능을 활용할 수 있습니다.
  2. 알파고: 프로 바둑 기사를 이긴 최초의 컴퓨터 프로그램인 알파고의 개발 과정에서 TPU는 이 프로그램이 사용하는 심층 신경망을 훈련하는 데 중요한 역할을 했습니다. 훈련 과정을 가속화하는 TPU의 능력은 인공 지능의 이정표를 달성하는 데 중요한 역할을 했습니다.

TPU 액세스 및 사용

Google 는 연구자, 개발자, 기업이 머신 러닝 프로젝트에 TPU를 활용할 수 있도록 Google Cloud를 통해 TPU에 대한 액세스를 제공합니다. 사용자는 교육 및 연구 목적으로 TPU에 무료로 액세스할 수 있는 Google Colab과 상용 애플리케이션을 위한 확장 가능한 TPU 리소스를 제공하는 Google Cloud의 AI 플랫폼과 같은 다양한 서비스를 통해 TPU를 활용할 수 있습니다.

TPU 및 Ultralytics

Ultralytics 은 Ultralytics YOLO 과 같은 최첨단 객체 감지 모델 개발에 중점을 두고 있지만, 이러한 모델의 학습과 추론을 가속화하는 기본 하드웨어가 매우 중요합니다. Ultralytics 모델은 다용도로 설계되어 CPU와 GPU에서 효율적으로 실행할 수 있지만, TPU를 활용하면 특정 작업의 성능을 크게 향상시킬 수 있습니다. 예를 들어, 광범위한 데이터 세트에서 대규모 모델을 훈련하거나 처리량이 많은 추론을 위한 모델을 배포하는 경우 TPU의 특수 처리 기능을 활용할 수 있습니다. ONNX , OpenVINO, TensorRT 과 같은 형식을 포함하여 YOLO 모델에 대한 모델 배포 옵션을 살펴보고 각각의 장단점을 파악하여 배포 전략을 세울 수 있습니다.

또한 다양한 플랫폼과 환경에 쉽게 배포할 수 있도록 Ultralytics YOLO 모델을 TensorFlow SavedModel 형식으로 내보내는 방법에 대해 알아볼 수 있습니다.

모두 보기