녹색 확인
링크가 클립보드에 복사됨

물체 감지를 위한 Ultralytics YOLO11 사용 방법

새로운 모델( Ultralytics YOLO11 )을 물체 감지에 사용하여 다양한 산업 분야의 다양한 애플리케이션에서 더 높은 정밀도를 달성하는 방법을 살펴보세요.

컴퓨터 비전은 기계가 시각 정보를 해석하고 이해하여 물체 감지와 같은 필수 작업을 수행할 수 있도록 돕는 인공지능(AI)의 한 분야입니다. 이미지 분류와 달리 객체 감지는 이미지에 어떤 객체가 있는지 식별할 뿐만 아니라 정확한 위치도 찾아냅니다. 따라서 자율 주행 자동차, 실시간 보안 시스템, 창고 자동화와 같은 비전 AI 애플리케이션에 매우 중요한 도구입니다.

시간이 지남에 따라 물체 감지 기술은 더욱 발전하고 사용하기 쉬워졌습니다. Ultralytics 의 연례 하이브리드 이벤트인 YOLO Vision 2024(YV24)에서 Ultralytics YOLO11 모델의 출시와 함께 중요한 진전이 발표되었습니다. YOLO11 는 정확도와 성능을 향상시키면서 다음과 같은 작업을 지원합니다. YOLOv8이전 모델 사용자도 원활하게 전환할 수 있습니다.

그림 1. 물체 감지를 위해 Ultralytics YOLO11 모델을 사용한 예시.

이 글에서는 객체 감지가 무엇인지, 다른 컴퓨터 비전 작업과 어떻게 다른지, 그리고 실제 적용 사례를 살펴봅니다. 또한 Ultralytics Python 패키지Ultralytics HUB 플랫폼과 함께 YOLO11 모델을 사용하는 방법도 안내해 드립니다. 시작해 봅시다!

객체 감지란 무엇인가요?

객체 감지는 이미지에서 객체를 식별하는 것 이상의 역할을 하는 컴퓨터 비전의 핵심 작업입니다. 특정 객체의 존재 여부만 확인하는 이미지 분류와 달리 객체 감지는 여러 객체를 인식하고 경계 상자를 사용하여 정확한 위치를 찾아냅니다. 

예를 들어, 단체 사진 속 얼굴, 번화한 거리의 자동차, 상점 진열대의 제품을 식별하고 위치를 파악할 수 있습니다. 객체 인식과 위치 파악을 결합하면 감시, 군중 모니터링, 자동 재고 관리와 같은 애플리케이션에 특히 유용합니다.

그림 2. YOLO11 사용하여 얼굴 감지하기.

객체 감지가 시맨틱 또는 인스턴스 세분화와 같은 다른 작업과 차별화되는 점은 집중도와 효율성입니다. 

의미적 분할은 이미지의 모든 픽셀에 레이블을 지정하지만 같은 유형의 개별 개체를 구분하지는 않습니다(예: 사진의 모든 얼굴은 '얼굴'로 그룹화됨). 인스턴스 세분화는 한 단계 더 나아가 각 개체를 분리하고 같은 클래스의 개체에 대해서도 정확한 모양을 설명합니다. 

그러나 객체 감지는 객체의 위치를 표시하면서 객체를 식별하고 분류하여 보다 간소화된 접근 방식을 제공합니다. 따라서 보안 영상에서 얼굴을 감지하거나 자율 주행 차량의 장애물을 식별하는 등의 실시간 작업에 이상적입니다.

YOLO11 및 객체 감지 애플리케이션

YOLO11의 고급 물체 감지 기능은 다양한 산업 분야에서 유용하게 사용됩니다. 몇 가지 예를 살펴보겠습니다.

리테일 애널리틱스에 YOLO11 사용

YOLO11 및 객체 감지는 재고 관리와 진열대 모니터링을 보다 효율적이고 정확하게 수행함으로써 리테일 분석을 재정의하고 있습니다. 빠르고 안정적으로 물체를 감지하는 이 모델의 기능은 소매업체가 재고 수준을 추적하고 선반을 정리하며 재고 계산의 실수를 줄이는 데 도움이 됩니다.

예를 들어 YOLO11 은 매장 진열대에 있는 선글라스와 같은 특정 품목을 감지할 수 있습니다. 그렇다면 리테일러가 진열대를 모니터링해야 하는 이유는 무엇일까요? 고객이 필요한 상품을 쉽게 찾을 수 있도록 진열대를 잘 정리하고 유지하는 것은 매출에 직접적인 영향을 미치기 때문입니다. 진열대를 실시간으로 모니터링함으로써 리테일러는 상품이 부족하거나, 잘못 배치되거나, 과밀하게 진열되어 있는 경우를 신속하게 파악하여 쇼핑 경험을 개선하는 체계적이고 매력적인 진열을 유지할 수 있습니다.

그림 3. YOLO11 을 사용하여 진열대에 있는 제품을 감지하는 예시.

YOLO11 스마트 시티 애플리케이션

번화한 도시는 원활한 교통 흐름과 안전한 도로가 있어야 효율적으로 기능할 수 있으며, YOLO11 은 이를 가능하게 하는 데 도움이 될 수 있습니다. 실제로 많은 스마트 시티 애플리케이션이 YOLO11 와 통합될 수 있습니다. 

한 가지 흥미로운 사례는 물체 감지를 사용하여 움직이는 차량의 번호판을 식별하는 것입니다. 이를 통해 YOLO11 더 빠른 통행료 징수, 더 나은 교통 관리, 더 빠른 규정 집행을 지원할 수 있습니다. 

그림 4. 물체 감지 및 YOLO11 를 사용하여 번호판 감지.

도로를 모니터링하는 비전 AI 시스템의 인사이트는 더 큰 문제로 확대되기 전에 교통 위반이나 혼잡을 당국에 알릴 수 있습니다. YOLO11 또한 보행자와 자전거를 감지하여 모두에게 더 안전하고 효율적인 도로를 만들 수 있습니다. 

실제로 YOLO11의 시각적 데이터 처리 기능은 도시 인프라를 개선하는 데 강력한 도구가 될 수 있습니다. 예를 들어, 차량과 보행자의 움직임을 분석하여 신호등 타이밍을 최적화하는 데 도움을 줄 수 있습니다. 또한 어린이를 감지하고 운전자에게 속도를 줄이도록 경고하여 스쿨존의 안전을 강화할 수 있습니다. YOLO11 을 통해 도시는 선제적인 조치를 취하여 문제를 해결하고 모두를 위한 보다 효율적인 환경을 조성할 수 있습니다.

실시간 비디오 감지( YOLO11): 접근성 향상

실시간 객체 감지는 실시간 비디오 피드에 나타나는 객체를 식별하고 분류하는 시스템의 기능을 말합니다. YOLO11 은 뛰어난 실시간 성능을 위해 설계되었으며 이 기능을 지원하는 데 탁월합니다. 또한 프로세스를 간소화하는 데 그치지 않고 더 포용적이고 접근성이 높은 세상을 만드는 데도 도움이 됩니다.

예를 들어 YOLO11 는 실시간으로 사물을 식별하여 시각 장애인을 도울 수 있습니다. 감지된 정보를 바탕으로 음성 설명을 제공하여 사용자가 보다 독립적으로 주변 환경을 탐색할 수 있도록 도와줍니다.

시각 장애인이 식료품을 쇼핑한다고 가정해 보세요. 올바른 품목을 고르는 것은 어려울 수 있지만 YOLO11 이 도움이 될 수 있습니다. 시각장애인이 장바구니에 물건을 담을 때 YOLO11 와 통합된 시스템을 사용하여 바나나, 아보카도, 우유 한 상자 등 각 품목을 식별하고 실시간 음성 설명을 제공할 수 있습니다. 이를 통해 고객은 자신의 선택을 확인하고 필요한 모든 것을 갖추었는지 확인할 수 있습니다. 일상적인 품목을 인식함으로써 YOLO11 쇼핑을 더 간단하게 만들 수 있습니다.

그림 5. 물체 감지 기능은 시각 장애인의 세상 접근성을 높이는 데 도움이 될 수 있습니다.

를 사용한 객체 감지에 대한 단계별 가이드 YOLO11 

이제 객체 감지의 기본 사항과 다양한 애플리케이션에 대해 살펴보았으니, 객체 감지와 같은 작업을 위해 Ultralytics YOLO11 모델을 시작하는 방법에 대해 자세히 알아보겠습니다.

Ultralytics Python 패키지 또는 Ultralytics HUB를 통해 YOLO11 를 사용하는 두 가지 간단한 방법이 있습니다. Python 패키지부터 시작하여 두 가지 방법을 모두 살펴보겠습니다.

다음을 사용하여 추론 실행 YOLO11

추론은 AI 모델이 보이지 않는 새로운 데이터를 분석하여 예측을 하거나 정보를 분류하거나 학습 중에 학습한 내용을 바탕으로 인사이트를 제공하는 것을 말합니다. 객체 감지와 관련해서는 이미지나 동영상 내에서 특정 객체를 식별하고 위치를 파악한 다음, 그 주위에 경계 상자를 그리고 모델 학습을 기반으로 레이블을 지정하는 것을 의미합니다.

YOLO11 객체 감지 모델을 사용하여 추론하려면 먼저 pip, conda 또는 Docker를 통해 Ultralytics Python 패키지를 설치해야 합니다. 설치 문제가 발생하면 문제 해결 가이드에서 문제 해결에 도움이 되는 팁과 요령을 확인하세요. 설치가 완료되면 다음 코드를 사용하여 YOLO11 객체 감지 모델을 로드하고 이미지에서 예측을 수행할 수 있습니다.

그림 6. YOLO11n을 사용하여 이미지에서 추론 실행하기.

사용자 지정 YOLO11 모델 교육

YOLO11 는 특정 사용 사례에 더 잘 맞도록 사용자 지정 교육도 지원합니다. 모델을 미세 조정하여 프로젝트와 관련된 물체를 감지하도록 조정할 수 있습니다. 예를 들어 의료 분야에서 컴퓨터 비전을 사용하는 경우, 맞춤 학습된 YOLO11 모델을 사용하여 MRI 스캔의 종양이나 엑스레이의 골절과 같은 의료 이미지의 특정 이상을 감지하여 의사가 더 빠르고 정확하게 진단하는 데 도움을 줄 수 있습니다.

아래 코드 스니펫은 객체 감지를 위해 YOLO11 모델을 로드하고 훈련하는 방법을 보여줍니다. YAML 구성 파일 또는 사전 학습된 모델에서 시작하여 가중치를 전송하고 COCO와 같은 데이터 세트에서 학습하여 보다 정교한 객체 감지 기능을 구현할 수 있습니다.


from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

모델을 학습한 후에는 학습된 모델을 다양한 형식으로 내보내 다양한 환경에 배포할 수도 있습니다.

YOLO11 Ultralytics 허브에서 물체 감지

코드가 필요 없는 대안을 찾는 분들을 위해 Ultralytics HUB는 YOLO 모델을 교육하고 배포하기 위한 사용하기 쉬운 Vision AI 플랫폼을 제공합니다( YOLO11).

이미지에서 객체 감지를 실행하려면 계정을 만들고 '모델' 섹션으로 이동한 다음 YOLO11 객체 감지 모델 변형을 선택하기만 하면 됩니다. 이미지를 업로드하면 플랫폼에서 감지된 객체를 미리보기 섹션에 표시합니다.

그림 7. Ultralytics 허브에서 추론 실행하기.

Python 패키지의 유연성과 HUB의 간편함을 결합하여 YOLO11 개발자와 기업 모두 고급 객체 감지 기술의 힘을 간편하게 활용할 수 있습니다.

주요 내용

YOLO11 는 다양한 산업의 요구를 충족하는 높은 정확도와 다목적성을 결합하여 물체 감지의 새로운 표준을 제시합니다. 리테일 분석 강화부터 스마트 시티 인프라 관리에 이르기까지, YOLO11 은 수많은 애플리케이션에서 실시간으로 안정적인 성능을 발휘하도록 설계되었습니다.

Ultralytics HUB를 통한 맞춤형 교육 옵션과 사용하기 쉬운 인터페이스를 통해 YOLO11 을 워크플로에 통합하는 것이 그 어느 때보다 쉬워졌습니다. 컴퓨터 비전을 탐구하는 개발자이든 AI로 혁신을 이루고자 하는 기업이든, YOLO11 은 성공에 필요한 도구를 제공합니다.

자세히 알아보려면 GitHub 리포지토리를 확인하고 커뮤니티에 참여하세요. 솔루션 페이지에서 자율 주행 자동차농업용 컴퓨터 비전 분야의 AI 애플리케이션을 살펴보세요. 🚀

Facebook 로고트위터 로고LinkedIn 로고복사 링크 기호

이 카테고리에서 자세히 보기

인공지능의 미래
를 함께 만들어 갑시다!

머신 러닝의 미래와 함께하는 여정 시작하기