용어집

GPU (그래픽 처리 장치)

GPU가 딥 러닝을 가속화하고 워크플로우를 최적화하며 실제 애플리케이션을 지원하여 AI와 머신 러닝을 혁신하는 방법을 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

그래픽 처리 장치GPU는 이미지, 동영상, 애니메이션의 제작과 렌더링을 가속화하기 위해 처음에 설계된 특수 전자 회로입니다. GPU는 게임 및 그래픽 디자인 산업에서 시작되었지만, 그 독특한 아키텍처 덕분에 현대 인공지능(AI) 및 머신러닝(ML)에서 없어서는 안 될 도구가 되었습니다. GPU는 병렬로 작동하는 수천 개의 처리 코어를 갖추고 있어 방대한 양의 계산을 동시에 처리할 수 있습니다. 이 기능은 딥 러닝 알고리즘에서 볼 수 있는 계산이 까다로운 작업에 매우 적합하여 더 빠른 모델 훈련과 효율적인 실시간 추론을 가능하게 합니다. GPU 진화를 이해하면 AI에서 GPU 현재 역할에 대한 맥락을 이해할 수 있습니다.

AI 및 머신 러닝의 중요성

GPU의 병렬 처리 능력은 최근 AI의 획기적인 발전을 이끈 주요 촉매제입니다. 심층 신경망을 훈련하려면 방대한 데이터 세트를 처리하고 행렬 곱셈과 같은 복잡한 수학적 연산을 수없이 수행해야 합니다. GPU는 이러한 연산에 탁월하여 기존의 중앙처리장치(CPU)에 비해 모델 훈련에 필요한 시간을 대폭 단축합니다. 이러한 가속화를 통해 AI 개발 분야의 연구자와 개발자는 더 빠르게 반복하고, 더 크고 복잡한 모델을 실험하고, 물체 감지이미지 분할과 같은 작업에서 더 높은 정확도를 달성할 수 있습니다.

다음은 실제 AI/ML 애플리케이션에서 GPU를 사용하는 두 가지 예시입니다:

  1. 실시간 물체 감지: 속도와 효율성이 뛰어난 것으로 알려진 Ultralytics YOLO 모델은 자율 주행, 보안 감시(보안 시스템 강화), 로봇 공학 등의 애플리케이션에서 실시간으로 물체 감지를 수행하기 위해 GPU에 크게 의존합니다. GPU의 병렬 특성 덕분에 이러한 모델은 비디오 프레임을 빠르고 정확하게 처리하여 여러 개의 물체를 동시에 식별할 수 있습니다. GPU 가속으로 구현되는 다양한 YOLO11 애플리케이션을 살펴보세요.
  2. 대규모 모델 훈련: 대규모 언어 모델(LLM)이나 복잡한 컴퓨터 비전 모델을 훈련하려면 종종 클라우드 컴퓨팅 플랫폼을 통해 액세스하는 상당한 계산 능력이 필요합니다. Ultralytics HUB 클라우드 트레이닝과 같은 서비스는 AWS, Google Cloud, Azure와 같은 제공업체의 강력한 GPU 클러스터를 활용하여 자연어 처리(NLP) 에서 고급 의료 이미지 분석에 이르는 다양한 작업을 위해 방대한 데이터 세트에서 모델을 트레이닝합니다.

CPU 및 TPU와의 주요 차이점

GPU, CPU, Tensor 프로세싱 유닛(TPU) 은 모두 프로세서 유형이지만, 각기 다른 강점을 가지고 있으며 각기 다른 작업에 최적화되어 있습니다:

  • CPU (중앙 처리 장치): 범용 컴퓨팅용으로 설계되어 순차적 작업과 시스템 운영 관리에 탁월합니다. CPU에는 짧은 지연 시간에 최적화된 몇 개의 강력한 코어가 있습니다. CPU GPU 개요를 참조하세요.
  • GPU (그래픽 처리 장치): 수천 개의 단순한 코어로 병렬 작업에 최적화되어 있습니다. 그래픽 렌더링 및 딥 러닝 모델 훈련과 같이 세분화하여 동시에 처리할 수 있는 작업에 이상적입니다. 성능 측정에는 종종 FLOPS와 같은 메트릭이 포함됩니다.
  • TPU (Tensor 처리 장치): 머신 러닝 워크로드를 가속화하기 위해 특별히 설계된 Google 맞춤형 ASIC(애플리케이션별 집적 회로)입니다. TensorFlow 프레임워크를 사용하여 머신 러닝 워크로드를 가속화하도록 특별히 설계되었습니다. 신경망에서 흔히 사용되는 대규모 행렬 연산에 고도로 최적화되어 있습니다. Google TPU 세부 정보에서 자세히 알아보세요.

GPU는 병렬 처리 작업을 위한 고성능과 다양한 애플리케이션에 걸친 다용도성 사이에서 균형을 이루기 때문에 많은 AI 및 고성능 컴퓨팅(HPC) 워크로드에 널리 사용되고 있습니다.

에코시스템 및 사용

AI 분야에서 GPU가 널리 채택되는 것은 강력한 소프트웨어 에코시스템이 뒷받침하고 있습니다. 다음과 같은 주요 제조업체 NVIDIAAMD와 같은 주요 제조업체는 AI 작업에 적합한 GPU를 제공합니다. NVIDIACUDA (컴퓨트 통합 장치 아키텍처) 플랫폼은 널리 사용되는 병렬 컴퓨팅 플랫폼이자 NVIDIA GPU용 프로그래밍 모델입니다. 다음과 같은 딥 러닝 프레임워크 PyTorch 와 같은 딥 러닝 프레임워크는 GPU 가속을 활용하도록 최적화되어 있습니다. GPU 개발을 위한 환경 설정은 Docker와 같은 컨테이너화 도구를 사용하여 간소화할 수 있으며, 설정 지침은 Ultralytics Docker 빠른 시작 가이드를 참조하세요. 효율적인 모델 배포에는 종종 대상 GPU 하드웨어에서 효과적으로 실행되도록 모델을 최적화하는 작업이 포함됩니다. GPU 성능을 활용하는 다양한 Ultralytics 솔루션을 살펴보세요.

모두 보기