객체 감지와 AI에서의 중요성, 그리고 YOLO11 같은 모델이 자율 주행 자동차, 의료, 보안과 같은 산업을 어떻게 혁신하고 있는지 알아보세요.
많은 업계에서 인공지능(AI) 솔루션을 운영에 빠르게 통합하고 있습니다. 현재 사용 가능한 많은 AI 기술 중 컴퓨터 비전은 가장 인기 있는 기술 중 하나입니다. 컴퓨터 비전은 컴퓨터가 사람처럼 이미지와 비디오의 내용을 보고 이해할 수 있도록 돕는 AI의 한 분야입니다. 컴퓨터 비전을 통해 기계는 사물을 인식하고, 패턴을 식별하고, 보고 있는 내용을 이해할 수 있습니다.
컴퓨터 비전의 세계 시장 가치는 2032년까지 1,757억 2,000만 달러로 성장할 것으로 예상됩니다. 컴퓨터 비전은 비전 AI 시스템이 시각 데이터를 분석하고 해석할 수 있도록 하는 다양한 작업을 포괄합니다. 컴퓨터 비전의 가장 널리 사용되고 필수적인 작업 중 하나는 물체 감지입니다.
객체 감지는 시각적 데이터에서 객체의 위치를 파악하고 분류하는 데 중점을 둡니다. 예를 들어 컴퓨터에게 소의 이미지를 보여주면 컴퓨터가 소를 감지하고 그 주위에 경계 상자를 그릴 수 있습니다. 이 기능은 동물 모니터링, 자율 주행 자동차, 감시와 같은 실제 애플리케이션에서 유용합니다.
그렇다면 객체 감지는 어떻게 수행할 수 있을까요? 한 가지 방법은 컴퓨터 비전 모델을 사용하는 것입니다. 예를 들어 Ultralytics YOLO11 은 물체 감지와 같은 컴퓨터 비전 작업을 지원하는 컴퓨터 비전 모델입니다.
이 가이드에서는 객체 감지와 그 작동 방식에 대해 살펴봅니다. 또한 객체 감지와 Ultralytics YOLO11 실제 적용 사례에 대해서도 설명합니다.
객체 감지는 이미지나 동영상에서 객체를 식별하고 위치를 파악하는 컴퓨터 비전 작업입니다. 이 작업은 두 가지 주요 질문에 답합니다: '이미지에 어떤 물체가 있는가?', '물체의 위치는 어디인가?'입니다.
객체 감지는 두 가지 주요 단계가 포함된 프로세스라고 생각할 수 있습니다. 첫 번째 단계인 객체 분류는 학습된 패턴을 기반으로 고양이, 자동차 또는 사람을 식별하는 등 시스템이 객체를 인식하고 레이블을 지정할 수 있게 해줍니다. 두 번째 단계인 로컬라이제이션은 객체 주위에 경계 상자를 그려 이미지에서 객체가 나타나는 위치를 표시하여 객체의 위치를 결정합니다. 이러한 단계를 통해 머신은 장면에서 사물을 감지하고 이해할 수 있습니다.
물체 감지의 고유한 측면은 물체를 인식하고 그 위치를 정확하게 찾아내는 능력입니다. 다른 컴퓨터 비전 작업은 다른 목표에 초점을 맞춥니다.
예를 들어 이미지 분류는 전체 이미지에 라벨을 할당합니다. 한편 이미지 분할은 다양한 요소에 대한 픽셀 수준의 이해를 제공합니다. 반면에 객체 감지는 인식과 로컬라이제이션을 결합합니다. 따라서 실시간으로 여러 개의 물체를 세는 것과 같은 작업에 특히 유용합니다.
다양한 컴퓨터 비전 용어를 살펴보다 보면 물체 인식과 물체 감지가 같은 의미로 느껴질 수 있지만, 두 용어는 서로 다른 용도로 사용됩니다. 그 차이를 이해하는 가장 좋은 방법은 얼굴 감지와 얼굴 인식을 살펴보는 것입니다.
얼굴 감지는 객체 감지의 한 유형입니다. 이미지에서 얼굴의 존재를 식별하고 경계 상자를 사용하여 위치를 표시합니다. "이미지에서 얼굴이 어디에 있습니까?"라는 질문에 답합니다. 이 기술은 일반적으로 얼굴에 자동으로 초점을 맞추는 스마트폰 카메라나 사람이 있는지 감지하는 보안 카메라에 사용됩니다.
반면에 얼굴 인식은 객체 인식의 한 형태입니다. 단순히 얼굴을 감지하는 것이 아니라 고유한 특징을 분석하고 데이터베이스와 비교하여 누구의 얼굴인지 식별합니다. "이 사람은 누구인가?"라는 질문에 답하는 것입니다. Face ID로 휴대폰 잠금을 해제하거나 신원을 확인하는 공항 보안 시스템의 기반이 되는 기술입니다.
간단히 말해, 객체 감지는 객체를 찾아 위치를 파악하는 반면 객체 인식은 객체를 분류하고 식별합니다.
YOLO11 같은 많은 객체 감지 모델은 얼굴 인식은 지원하지만 얼굴 감지는 지원하지 않도록 설계되었습니다. YOLO11 이미지에서 얼굴의 존재를 효율적으로 식별하고 그 주변에 경계 상자를 그릴 수 있어 감시 시스템, 군중 모니터링, 자동 사진 태그 지정과 같은 애플리케이션에 유용합니다. 하지만 누구의 얼굴인지는 확인할 수 없습니다. YOLO11 얼굴 인식을 위해 특별히 훈련된 모델(예: Facenet 또는 DeepFace)과 통합하여 단일 시스템에서 감지 및 식별이 모두 가능하도록 할 수 있습니다.
객체 감지가 어떻게 작동하는지 설명하기 전에 먼저 컴퓨터가 이미지를 분석하는 방법을 자세히 살펴봅시다. 컴퓨터는 사람처럼 이미지를 보는 대신 픽셀이라는 작은 정사각형 그리드로 이미지를 분해합니다. 각 픽셀에는 컴퓨터가 시각적 데이터를 해석하기 위해 처리할 수 있는 색상 및 밝기 정보가 포함되어 있습니다.
이러한 픽셀을 이해하기 위해 알고리즘은 모양, 색상 및 서로 얼마나 가까운지에 따라 의미 있는 영역으로 픽셀을 그룹화합니다. YOLO11 같은 객체 감지 모델은 이러한 픽셀 그룹에서 패턴이나 특징을 인식할 수 있습니다.
예를 들어, 자율 주행 자동차는 사람처럼 보행자를 보는 것이 아니라 보행자의 특징과 일치하는 모양과 패턴을 감지합니다. 이러한 모델은 레이블이 지정된 이미지 데이터 세트를 통한 광범위한 학습을 통해 자동차, 교통 표지판, 사람과 같은 사물의 고유한 특징을 학습할 수 있습니다.
일반적인 객체 감지 모델에는 백본, 목, 머리의 세 가지 주요 부분이 있습니다. 백본은 이미지에서 중요한 특징을 추출합니다. 넥은 이러한 특징을 처리하고 정제하며, 헤드는 객체 위치를 예측하고 분류하는 역할을 담당합니다.
초기 탐지가 완료되면 정확도를 높이고 중복 예측을 걸러내기 위해 후처리 기술을 적용합니다. 예를 들어, 중복되는 경계 상자를 제거하여 가장 관련성이 높은 감지만 유지되도록 합니다. 또한 신뢰 점수(탐지된 객체가 특정 클래스에 속한다고 모델이 얼마나 확신하는지를 나타내는 수치)가 탐지된 각 객체에 할당되어 모델의 예측에 대한 확실성을 나타냅니다.
마지막으로, 감지된 객체 주위에 경계 상자가 그려지고 예측된 클래스 레이블 및 신뢰도 점수와 함께 결과가 표시됩니다. 이 결과는 실제 애플리케이션에 사용할 수 있습니다.
오늘날에는 많은 컴퓨터 비전 모델을 사용할 수 있으며, 그중 가장 인기 있는 모델 중 하나는 Ultralytics YOLO 모델입니다. 이 모델은 속도, 정확성, 다용도로 잘 알려져 있습니다. 수년에 걸쳐 이러한 모델은 더 빠르고 정확해졌으며 더 다양한 작업을 처리할 수 있게 되었습니다. 이번에 출시된 Ultralytics YOLOv5 의 출시로 PyTorch 같은 프레임워크를 통한 배포가 더욱 쉬워져 더 많은 사람들이 깊은 기술 전문 지식 없이도 고급 Vision AI를 사용할 수 있게 되었습니다.
이러한 토대 위에 구축합니다, Ultralytics YOLOv8 은 인스턴스 분할, 포즈 추정, 이미지 분류와 같은 새로운 기능을 도입했습니다. 이제 YOLO11 여러 작업에서 더 나은 성능으로 한 단계 더 발전했습니다. YOLOv8m 22% 더 적은 수의 파라미터를 사용하는 YOLO11m은 COCO 데이터 세트에서 더 높은 평균 정밀도(mAP)를 달성합니다. 간단히 말해, YOLO11 더 적은 리소스를 사용하면서도 더 높은 정밀도로 물체를 인식할 수 있어 더 빠르고 안정적입니다.
AI 전문가든 이제 막 시작하려는 사람이든, YOLO11 컴퓨터 비전 애플리케이션을 위한 강력하면서도 사용자 친화적인 솔루션을 제공합니다.
비전 AI 모델을 훈련하려면 컴퓨터가 이미지와 동영상을 인식하고 이해하도록 도와야 합니다. 그러나 훈련은 시간이 많이 걸리는 과정일 수 있습니다. 전이 학습은 처음부터 시작하는 대신 이미 일반적인 패턴을 인식하는 사전 학습된 모델을 사용하여 속도를 높입니다.
예를 들어, YOLO11 다양한 일상의 사물이 포함된 COCO 데이터 세트에 대해 이미 학습을 마쳤습니다. 이 사전 학습된 모델을 추가로 사용자 지정 학습하여 원본 데이터 세트에 포함되지 않은 특정 개체를 감지할 수 있습니다.
YOLO11 사용자 정의 학습 하려면 감지하려는 대상의 이미지가 포함된 레이블이 지정된 데이터 세트가 필요합니다. 예를 들어 식료품점에서 다양한 종류의 과일을 식별하는 모델을 구축하려면 사과, 바나나, 오렌지 등의 라벨이 붙은 이미지로 데이터 세트를 만들면 됩니다. 데이터 세트가 준비되면 배치 크기, 학습 속도, 기간과 같은 매개 변수를 조정하여 성능을 최적화하기 위해 YOLO11 학습시킬 수 있습니다.
이러한 접근 방식을 통해 기업은 제조 과정의 결함 부품부터 보호 프로젝트의 야생 동물 종에 이르기까지 모든 것을 감지하도록 YOLO11 훈련시켜 정확한 요구 사항에 맞게 모델을 조정할 수 있습니다.
다음으로 객체 감지의 실제 사용 사례와 다양한 산업을 어떻게 변화시키고 있는지 살펴보겠습니다.
자율주행차는 물체 감지와 같은 컴퓨터 비전 작업을 통해 안전하게 주행하고 장애물을 피합니다. 이 기술은 보행자, 다른 차량, 포트홀, 도로 위험 요소를 인식하여 주변 환경을 더 잘 이해할 수 있도록 도와줍니다. 주변 환경을 지속적으로 분석하여 빠른 의사 결정을 내리고 교통 체증 속에서도 안전하게 이동할 수 있습니다.
엑스레이, MRI, CT 스캔, 초음파 등의 의료 영상 기술은 인체에 대한 매우 상세한 이미지를 생성하여 질병을 진단하고 치료하는 데 도움을 줍니다. 이러한 스캔은 방사선 전문의나 병리학자 같은 의사가 질병을 발견하기 위해 신중하게 분석해야 하는 대량의 데이터를 생성합니다. 그러나 모든 이미지를 자세히 검토하는 데는 많은 시간이 소요될 수 있으며, 전문가는 피로감이나 시간 제약으로 인해 세부 사항을 놓칠 수 있습니다.
YOLO11 같은 물체 감지 모델은 장기, 종양 또는 이상과 같은 의료 스캔의 주요 특징을 높은 정확도로 자동으로 식별하여 도움을 줄 수 있습니다. 맞춤형으로 학습된 모델은 경계 상자로 우려되는 영역을 강조 표시하여 의사가 잠재적인 문제에 더 빨리 집중할 수 있도록 도와줍니다. 이를 통해 작업량이 줄어들고 효율성이 향상되며 빠른 인사이트를 얻을 수 있습니다.
객체 추적은 YOLO11 지원하는 컴퓨터 비전 작업으로, 실시간 모니터링과 보안 강화를 가능하게 합니다. 이 기술은 객체를 식별하고 프레임 전체에서 객체의 움직임을 지속적으로 추적하여 객체 감지를 기반으로 합니다. 이 기술은 다양한 환경에서 안전을 개선하기 위해 감시 시스템에서 널리 사용됩니다.
예를 들어, 학교와 어린이집에서는 객체 추적을 통해 어린이를 모니터링하고 배회하는 것을 방지할 수 있습니다. 보안 애플리케이션에서는 제한 구역의 침입자를 감지하고, 군중이 과밀하거나 의심스러운 행동을 하는지 모니터링하며, 무단 활동이 감지되면 실시간 경고를 보내는 데 중요한 역할을 합니다. YOLO11 추적 시스템은 이동하는 물체를 추적함으로써 보안을 강화하고 모니터링을 자동화하며 잠재적인 위협에 더 빠르게 대응할 수 있도록 합니다.
다음은 객체 감지가 다양한 산업에 가져올 수 있는 몇 가지 주요 이점입니다:
이러한 이점은 객체 감지가 다양한 사용 사례에 미치는 영향을 강조하지만, 구현과 관련된 과제를 고려하는 것도 중요합니다. 다음은 몇 가지 주요 과제입니다:
객체 감지는 컴퓨터 비전의 획기적인 도구로, 이미지와 동영상에서 기계가 객체를 감지하고 위치를 찾는 데 도움을 줍니다. 자율 주행 자동차부터 의료 분야에 이르기까지 다양한 분야에서 사용되고 있으며, 작업을 더 쉽고, 더 안전하고, 더 효율적으로 만들어 줍니다. YOLO11 같은 최신 모델을 통해 기업은 맞춤형 객체 감지 모델을 쉽게 생성하여 특수 컴퓨터 비전 애플리케이션을 만들 수 있습니다.
개인 정보 보호 문제나 보이지 않는 물체와 같은 몇 가지 과제가 있지만, 물체 감지는 신뢰할 수 있는 기술입니다. 작업을 자동화하고 시각 데이터를 실시간으로 처리하며 다른 Vision AI 도구와 통합할 수 있기 때문에 최첨단 혁신의 필수 요소입니다.
자세한 내용은 GitHub 리포지토리를 방문하여 커뮤니티에 참여하세요. 솔루션 페이지에서 자율 주행 자동차의 AI와 농업 분야의 컴퓨터 비전과 같은 분야의 혁신을 살펴보세요. yolo 라이선싱 옵션을 확인하고 Vision AI 프로젝트를 실현하세요. 🚀