녹색 확인
링크가 클립보드에 복사됨

엣지 AI 디바이스에 컴퓨터 비전 애플리케이션 배포하기

엣지 AI와 젯슨, Triton, TensorRT 같은 NVIDIA 혁신이 어떻게 컴퓨터 비전 애플리케이션 배포를 간소화하고 있는지 알아보세요.

최근 컴퓨터 비전과 인공 지능(AI)의 발전 덕분에 한때 연구 분야에 불과했던 컴퓨터 비전은 이제 다양한 산업 분야에서 영향력 있는 애플리케이션을 주도하고 있습니다. 자율 주행 자동차부터 의료 영상 및 보안에 이르기까지 컴퓨터 비전 시스템은 실제 문제를 대규모로 해결하고 있습니다. 

이러한 애플리케이션 중 상당수는 이미지와 동영상을 실시간으로 분석해야 하는데, 지연 시간, 비용, 개인정보 보호 문제로 인해 클라우드 컴퓨팅에 의존하는 것이 항상 실용적인 것은 아닙니다. 엣지 AI는 이러한 상황에서 훌륭한 솔루션입니다. 엣지 디바이스에서 직접 Vision AI 모델을 실행함으로써 기업은 데이터를 더 빠르고, 더 경제적으로, 더 안전하게 처리하여 실시간 AI에 더 쉽게 액세스할 수 있습니다.

Ultralytics 주최하는 연례 하이브리드 이벤트인 YOLO Vision 2024(YV24)의 핵심 주제 중 하나는 보다 사용자 친화적이고 효율적인 배포를 통한 비전 AI의 대중화였습니다. NVIDIA 수석 솔루션 아키텍트인 가이 다한은 엣지 컴퓨팅 디바이스, 추론 서버, 최적화 프레임워크, AI 배포 SDK를 포함한 NVIDIA하드웨어 및 소프트웨어 솔루션이 개발자가 엣지에서 AI를 최적화하는 데 어떻게 도움이 되는지에 대해 설명했습니다.

이 글에서는 가이 다한의 YV24 기조연설의 주요 내용과 NVIDIA최신 혁신이 어떻게 비전 AI 배포를 더 빠르고 확장 가능하게 만드는지 살펴봅니다.

엣지 AI란 무엇인가요?

가이 다한은 강연을 시작하며 "저는 Ultralytics 처음 출시된 날부터 울트라트래틱스를 사용해 왔습니다."라며 가상으로 YV24에 합류하게 된 열정과 Ultralytics Python 패키지와 울트라트래틱스 YOLO 모델에 대한 관심을 표명했습니다. 그 이전에도 YOLOv5 사용해 왔으며, 이 패키지의 열렬한 팬입니다."라고 말했습니다.

이어서 그는 엣지 AI의 개념을 소개하며, 엣지 AI는 데이터를 멀리 떨어진 클라우드 서버로 보내 처리하는 것이 아니라 카메라, 드론, 산업용 기계와 같은 디바이스에서 직접 AI 연산을 실행하는 것이라고 설명했습니다. 

이미지나 동영상이 업로드되고 분석된 후 결과가 전송될 때까지 기다릴 필요 없이, Edge AI를 사용하면 디바이스 자체에서 즉시 데이터를 분석할 수 있습니다. 따라서 Vision AI 시스템은 더 빠르고 효율적이며 인터넷 연결에 대한 의존도가 낮아집니다. 엣지 AI는 특히 자율주행차, 보안 카메라, 스마트 팩토리와 같이 실시간 의사결정이 필요한 애플리케이션에 유용합니다. 

엣지 AI의 주요 이점

가이 다한은 효율성, 비용 절감, 데이터 보안에 초점을 맞춰 엣지 AI의 주요 이점을 강조했습니다. 그는 가장 큰 장점 중 하나는 짧은 지연 시간으로, AI 모델이 디바이스에서 직접 데이터를 처리하기 때문에 클라우드에 정보를 전송하고 응답을 기다릴 필요가 없다고 설명했습니다. 

엣지 AI는 비용을 절감하고 민감한 데이터를 보호하는 데도 도움이 됩니다. 대량의 데이터, 특히 비디오 스트림을 클라우드로 전송하는 것은 비용이 많이 들 수 있습니다. 하지만 로컬에서 처리하면 대역폭과 스토리지 비용을 절감할 수 있습니다. 

또 다른 주요 장점은 정보가 외부 서버로 전송되지 않고 디바이스에 남아 있기 때문에 데이터 프라이버시가 보장된다는 점입니다. 이는 데이터를 로컬에 안전하게 보관하는 것이 최우선 과제인 의료, 금융, 보안 애플리케이션에 특히 중요합니다.

그림 1. YV24에서 원격으로 엣지 AI의 이점에 대해 발표하는 Guy Dahan.

가이 다한은 이러한 이점을 바탕으로 엣지 AI의 채택이 증가하는 추세에 대해 언급했습니다. 그는 NVIDIA 2014년에 Jetson을 출시한 이후 사용량이 10배 증가했다고 언급했습니다. 현재 120만 명 이상의 개발자가 Jetson 디바이스로 작업하고 있습니다. 

NVIDIA 젯슨: 엣지 AI 디바이스 개요

그런 다음 Guy Dahan은 저전력 소비로 고성능을 제공하도록 설계된 AI 엣지 컴퓨팅 디바이스 제품군인 NVIDIA Jetson 디바이스에 대해 집중적으로 설명했습니다. 젯슨 디바이스는 로봇 공학, 농업, 의료 및 산업 자동화와 같은 분야의 컴퓨터 비전 애플리케이션에 이상적입니다. "젯슨은 AI를 위해 특별히 맞춤 제작된 엣지 AI 디바이스입니다. 원래는 주로 컴퓨터 비전용으로 설계되었다고 덧붙일 수도 있습니다."라고 가이 다한은 말합니다.

Jetson 디바이스는 각기 다른 요구 사항에 적합한 세 가지 계층으로 제공됩니다:

  • 엔트리 레벨: 이 디바이스는 10~15W의 전력 소비로 20~40조 TOPS(초당 작업 처리 수)의 AI 성능을 제공하므로 엣지 애플리케이션에 적합한 경제적인 선택입니다.
  • 메인스트림: 성능과 효율성의 균형을 유지하며 20~40W 전력 소비로 70~200 TOPS를 제공하여 중간급 AI 워크로드에 적합합니다.
  • 고성능: 로봇 공학 및 자동화와 같은 까다로운 AI 애플리케이션을 위해 설계된 60~75W 전력 소비로 최대 275 TOPS를 제공합니다.

또한 가이 다한은 올해 출시 예정인 젯슨 AGX 토르에 대해 공유하며, 8배의 GPU (그래픽 처리 장치) 성능, 2배의 메모리 용량, 향상된 CPU (중앙 처리 장치) 성능을 제공할 것이라고 말했습니다. 이 제품은 휴머노이드 로봇 공학 및 고급 엣지 AI 애플리케이션을 위해 특별히 설계되었습니다.

컴퓨터 비전 모델 배포와 관련된 과제

그런 다음 Guy Dahan은 Edge AI의 소프트웨어 측면에 대해 논의하면서 강력한 하드웨어가 있더라도 모델을 효율적으로 배포하는 것은 어려울 수 있다고 설명했습니다. 

가장 큰 장애물 중 하나는 호환성인데, AI 개발자는 PyTorch TensorFlow 같은 서로 다른 AI 프레임워크로 작업하는 경우가 많기 때문입니다. 이러한 프레임워크 간에 이동하는 것은 어려울 수 있으며, 개발자는 모든 것이 올바르게 실행되도록 환경을 다시 만들어야 합니다.

확장성은 또 다른 핵심 과제입니다. AI 모델에는 상당한 컴퓨팅 성능이 필요하며, 다한의 말처럼 "적은 컴퓨팅을 원하는 AI 회사는 없었습니다." 여러 디바이스에 걸쳐 AI 애플리케이션을 확장하면 비용이 빠르게 증가할 수 있으므로 최적화가 필수적입니다.

또한 AI 파이프라인은 다양한 유형의 데이터, 실시간 처리, 시스템 통합이 복잡하게 얽혀 있는 경우가 많습니다. 개발자는 모델이 기존 소프트웨어 에코시스템과 원활하게 상호 작용하도록 하기 위해 많은 노력을 기울입니다. 이러한 문제를 극복하는 것은 AI 배포를 보다 효율적이고 확장 가능하게 만드는 데 있어 매우 중요한 부분입니다.

그림 2. 모델 배포의 어려움.

NVIDIA Triton 추론 서버로 배포 간소화

다음으로 가이 다한은 NVIDIA Triton 추론 서버에 주목했습니다. 그는 많은 기업과 스타트업이 모델을 완전히 최적화하지 않은 채 AI 개발을 시작한다고 지적했습니다. 전체 AI 파이프라인을 처음부터 다시 설계하면 혼란스럽고 시간이 많이 소요되어 효율적으로 확장하기 어려울 수 있습니다. 

개발자는 시스템을 전면적으로 개편할 필요 없이 Triton 통해 기존 설정을 유지하면서 보다 효율적인 구성 요소를 통합하여 AI 워크플로우를 점진적으로 개선하고 최적화할 수 있습니다. TensorFlow, PyTorch, ONNX, TensorRT 등 여러 AI 프레임워크를 지원하는 Triton 클라우드 환경, 데이터센터, 엣지 디바이스 전반에 걸쳐 최소한의 조정만으로 원활하게 배포할 수 있습니다.

그림 3. NVIDIA Triton 추론 서버 개요.

NVIDIA Triton 추론 서버의 주요 장점은 다음과 같습니다:

  • 자동 일괄 처리: Triton 여러 AI 요청을 처리하기 전에 그룹화하여 지연(대기 시간)을 줄이고 추론 속도(AI 모델이 결과를 생성하는 데 걸리는 시간)를 개선합니다.
  • Kubernetes 통합: Triton 클라우드 네이티브이므로 여러 컴퓨터 또는 클라우드 서버에서 AI 애플리케이션을 관리하고 확장하는 데 도움이 되는 시스템인 Kubernetes와 원활하게 작동합니다.
  • 오픈 소스 및 커스터마이징 가능: 개발자는 특정 요구 사항에 맞게 Triton 수정할 수 있으므로 다양한 AI 애플리케이션을 위한 유연성을 확보할 수 있습니다.

NVIDIA TensorRT 사용한 AI 성능 극대화

더 빠른 가속을 원한다고 가정해 보겠습니다; NVIDIA TensorRT 는 AI 모델을 최적화할 수 있는 흥미로운 옵션입니다. 가이 다한은 TensorRT NVIDIA GPU용으로 제작된 고성능 딥 러닝 최적화 도구라고 자세히 설명했습니다. TensorFlow, PyTorch, ONNX 및 MXNet의 모델은 TensorRT 사용하여 매우 효율적인 GPU 파일로 변환할 수 있습니다.

TensorRT 안정성은 하드웨어별 최적화에 있습니다. TensorRT 장치에 최적화된 모델은 대상 하드웨어에 따라 성능을 미세 조정하기 때문에 다른 GPU에서는 효율적으로 작동하지 않습니다. 미세 조정된 컴퓨터 비전 모델은 최적화되지 않은 모델에 비해 추론 속도가 최대 36배까지 향상될 수 있습니다.

가이 다한은 또한 AI 모델 배포를 더 빠르고 효율적으로 만드는 방법에 대해 이야기하면서 Ultralytics TensorRT 지원에 주목했습니다. Ultralytics YOLO 모델을 TensorRT 형식으로 직접 내보낼 수 있으므로 개발자는 변경할 필요 없이 NVIDIA GPU에 맞게 최적화할 수 있습니다. 

DeepStream 7.0: 스트리밍 분석 툴킷

강연을 마무리하며 가이 다한은 NVIDIA GPU를 사용해 비디오, 오디오 및 센서 데이터를 실시간으로 처리하도록 설계된 AI 프레임워크인 딥스트림 7.0을 선보였습니다. 고속 컴퓨터 비전 애플리케이션을 지원하도록 설계된 이 프레임워크는 자율 시스템, 보안, 산업 자동화 및 스마트 시티 전반에서 물체 감지, 추적 및 분석을 가능하게 합니다. 딥스트림은 엣지 디바이스에서 직접 AI를 실행함으로써 클라우드 의존성을 제거하여 지연 시간을 줄이고 효율성을 개선합니다.

그림 4. 가이 다한과 함께 YV24에서 DeepStream 7.0 살펴보기.

특히 딥스트림은 AI 기반 비디오 처리를 처음부터 끝까지 처리할 수 있습니다. 비디오 디코딩 및 전처리부터 AI 추론 및 후처리에 이르기까지 엔드투엔드 워크플로우를 지원합니다. 

최근 딥스트림은 AI 배포를 개선하기 위해 몇 가지 업데이트를 도입하여 접근성과 확장성을 높였습니다. 새로운 도구는 개발을 간소화하고, 멀티 카메라 추적을 개선하며, AI 파이프라인을 최적화하여 성능을 향상시킵니다. 

이제 개발자는 Windows 환경에 대한 지원이 확대되고, 여러 소스의 데이터를 통합하기 위한 센서 융합 기능이 향상되었으며, 사전 구축된 참조 애플리케이션에 액세스하여 배포를 가속화할 수 있습니다. 이러한 개선 사항을 통해 DeepStream은 실시간 AI 애플리케이션을 위한 더욱 유연하고 효율적인 솔루션이 되어 개발자가 지능형 비디오 분석을 쉽게 확장할 수 있도록 지원합니다.

주요 요점

YV24의 기조연설에서 설명한 바와 같이, 엣지 AI는 컴퓨터 비전 애플리케이션을 재정의하고 있습니다. 하드웨어와 소프트웨어의 발전으로 실시간 처리가 더욱 빠르고 효율적이며 비용 효율적이 되고 있습니다.

더 많은 산업에서 엣지 AI를 도입함에 따라 파편화 및 배포 복잡성과 같은 문제를 해결하는 것이 엣지 AI의 잠재력을 최대한 활용하는 데 핵심이 될 것입니다. 이러한 혁신을 수용하면 더 스마트하고 반응성이 뛰어난 AI 애플리케이션을 개발하여 컴퓨터 비전의 미래를 만들어갈 수 있습니다.

성장하는 커뮤니티의 일원이 되어보세요! GitHub 리포지토리를 살펴보고 AI에 대해 자세히 알아보고 라이선스 옵션을 확인하여 Vision AI 프로젝트를 시작하세요. 의료 분야의 AI와 제조 분야의 컴퓨터 비전과 같은 혁신에 대해 궁금하신가요? 솔루션 페이지를 방문하여 자세히 알아보세요!

Facebook 로고트위터 로고LinkedIn 로고복사 링크 기호

이 카테고리에서 자세히 보기

인공지능의 미래
를 함께 만들어 갑시다!

머신 러닝의 미래와 함께하는 여정 시작하기