용어집

GPU (그래픽 처리 장치)

GPU가 딥 러닝을 가속화하고 워크플로우를 최적화하며 실제 애플리케이션을 지원하여 AI와 머신 러닝을 혁신하는 방법을 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

그래픽 처리 장치(GPU)는 디스플레이 장치로 출력하기 위한 프레임 버퍼의 이미지 생성을 가속화하기 위해 메모리를 빠르게 조작하고 변경하도록 설계된 특수 프로세서 유형입니다. 처음에는 게임과 디자인의 그래픽 렌더링을 위해 개발되었지만, GPU는 인공 지능(AI) 및 머신 러닝(ML) 분야에서 없어서는 안 될 필수 요소가 되었습니다. 병렬 처리 아키텍처 덕분에 복잡한 딥 러닝 모델을 훈련하고 빠른 추론을 수행하는 데 필요한 계산 집약적인 작업에 매우 적합합니다.

AI 및 머신 러닝의 중요성

GPU의 등장은 신경망의 학습을 획기적으로 가속화함으로써 AI와 머신러닝에 혁명을 일으켰습니다. 방대한 양의 이미지 데이터를 처리해야 하는 객체 감지이미지 분할과 같은 작업은 GPU의 병렬 처리 기능의 이점을 크게 누릴 수 있습니다. 예를 들어, Ultralytics YOLO 모델은 GPU를 활용하여 물체 감지 작업을 위한 비디오 및 이미지 데이터 처리에서 실시간 정확도를 달성합니다. 이러한 속도 덕분에 연구자와 개발자는 모델을 더 빠르게 반복하고, 더 큰 데이터 세트를 실험하고, 이전에는 계산상의 제약으로 인해 실용적이지 않았던 정교한 AI 애플리케이션을 배포할 수 있습니다.

CPU 및 TPU와의 주요 차이점

중앙 처리 장치(CPU)와 GPU는 근본적으로 설계와 적용 방식이 다릅니다. CPU는 범용 컴퓨팅에 최적화되어 있으며 다양한 작업을 순차적으로 처리하는 데 탁월합니다. 반면 GPU는 여러 데이터 포인트에서 동시에 동일한 연산을 수행하는 대규모 병렬 계산을 위해 설계되었습니다. 이러한 병렬 아키텍처 덕분에 GPU는 딥 러닝의 핵심인 행렬 곱셈 및 기타 선형 대수 연산에 매우 효과적입니다.

GPU는 병렬 처리에 탁월하지만, Tensor 처리 장치(TPU) 는 머신 러닝 워크로드를 위해 특별히 Google 에서 개발한 또 다른 종류의 특수 하드웨어입니다. TPU는 TensorFlow 에 맞게 설계 및 최적화되어 있으며 특정 머신 러닝 작업, 특히 추론에 훨씬 더 뛰어난 성능을 제공합니다. 그러나 GPU는 더 광범위한 적용 가능성과 더 넓은 소프트웨어 에코시스템으로 인해 여전히 더 다재다능하며, 다음과 같은 프레임워크에서 지원됩니다. PyTorch 및 NVIDIA 의 CUDA 플랫폼과 같은 프레임워크가 지원되므로 대부분의 AI 개발에 널리 사용되고 있습니다.

AI의 실제 적용 사례

GPU는 수많은 산업에 영향을 미치는 다양한 AI 애플리케이션을 구현하는 데 필수적입니다:

  • 자율주행 차량: 자율 주행 자동차는 카메라, 라이더, 레이더 센서의 데이터를 실시간으로 처리하기 위해 GPU에 크게 의존하여 내비게이션과 안전을 위한 신속한 의사결정을 내릴 수 있습니다. GPU가 제공하는 고속 프로세싱은 자율 주행 차량의 AI에 필요한 응답성을 위해 매우 중요합니다.
  • 의료 영상: 의료 분야에서 GPU는 MRI 및 CT 스캔과 같은 의료 이미지의 분석을 가속화하여 더 빠르고 정확한 진단을 돕습니다. GPU 기반의 의료 이미지 분석은 의료 전문가의 효율성을 개선하고 환자 치료를 향상시킵니다.
  • 게임과 가상 현실: GPU는 AI를 넘어 복잡한 그래픽을 렌더링하고 몰입감 넘치는 가상 현실 경험을 가능하게 하는 게임 산업의 중추 역할을 계속하고 있습니다. 고성능 GPU는 이러한 애플리케이션에서 사실적이고 부드러운 비주얼을 구현하는 데 필수적입니다.
  • 과학 연구: 다양한 과학 분야의 연구원들은 기후 모델링, 신약 개발, 입자 물리학 등의 분야에서 시뮬레이션과 데이터 분석을 가속화하기 위해 GPU를 사용합니다. GPU의 연산 능력은 더 복잡하고 세밀한 시뮬레이션을 가능하게 하여 더 빠른 과학적 혁신을 이끌어냅니다.

Ultralytics 에코시스템과 통합

Ultralytics 는 에코시스템 전반에 걸쳐 GPU의 성능을 활용하여 성능과 효율성을 최적화합니다. Ultralytics HUB 플랫폼을 통해 사용자는 클라우드에서 모델을 훈련할 수 있습니다. Ultralytics YOLOGPU 가속을 활용하여 클라우드에서 모델을 훈련하여 훈련 시간을 크게 단축할 수 있습니다. 모델 배포를 위해 Ultralytics 은 다음과 같은 형식을 지원합니다. TensorRT와 같은 형식을 지원하여 NVIDIA GPU에 맞게 모델을 최적화하여 추론 속도를 향상시킵니다.

엣지 배포의 경우, 강력한 NVIDIA GPU가 탑재된 NVIDIA Jetson 시리즈와 같은 장치는 실시간 애플리케이션에서 Ultralytics YOLO 모델을 실행하는 데 이상적인 플랫폼입니다. GPU -가속화된 AI를 시작하려면 Ultralytics 빠른 시작 가이드에서 CUDA 및 필요한 환경 설정에 대한 지침을 확인할 수 있습니다. 훈련 규모를 확장하려는 고급 사용자의 경우, 여러 GPU에 분산 훈련이 지원되므로 더 크고 복잡한 모델의 훈련 프로세스를 더욱 가속화할 수 있습니다.

모두 보기