X
Ultralytics YOLOv8.2 릴리스Ultralytics YOLOv8.2 릴리스Ultralytics YOLOv8.2 릴리스 화살표
녹색 확인
링크가 클립보드에 복사됨

달리기 Ultralytics Object Detection and Segmentation Models in a Few Lines of Code

몇 줄의 코드로 Ultralytics 객체 감지 및 세분화 모델을 실행하는 방법에 대한 단계별 가이드입니다.

Ultralytics ' YOLOv5 '의 기능을 자세히 살펴보는 또 다른 블로그 게시물에 오신 것을 환영합니다. YOLOv8 모델의 기능을 살펴봅니다. 이 사용하기 쉬운 모델을 몇 줄의 코드만으로 프로젝트에 통합하는 방법을 살펴보겠습니다. 초보자든 숙련된 개발자든 Ultralytics 이 다양한 YOLO 버전과 트랜스포머 기반 모델을 포함하여 다양한 모델과 아키텍처를 어떻게 지원하는지 확인할 수 있습니다. 

동영상에서 Nicolai Nielsen은 Ultralytics 프레임워크 내에서 다양한 모델을 설정하고 사용하는 과정을 안내합니다. 단계별로 세분화하여 이 놀라운 도구를 어떻게 시작할 수 있는지 알아보세요.

Ultralytics 모델 시작하기

Ultralytics 는 여러 객체 감지 및 세분화 모델을 지원하는 포괄적인 프레임워크를 제공합니다. 여기에는 인기 있는 YOLO 모델부터 최신 YOLOv8, YOLO-NAS 및 SAM 모델까지 포함됩니다. 이러한 모델은 실시간 감지, 세분화포즈 추정과 같은 다양한 작업을 처리하도록 설계되었습니다.

시작하려면 Ultralytics 문서 페이지를 방문하세요. 여기에서 주요 기능, 아키텍처, Python 스크립트에서 사용하는 방법 등 각 모델에 대한 자세한 정보를 확인할 수 있습니다.

환경 설정

먼저 Ultralytics 가 설치되어 있는지 확인합니다. 실행하여 이 작업을 수행할 수 있습니다:

bash

코드 복사


pip install ultralytics

이 작업이 완료되면 프로젝트에서 이러한 모델을 사용할 수 있습니다. YOLOv8 모델을 예로 들어 보겠습니다.

주요 기능 YOLOv8

YOLOv8 는 이전 버전에 비해 몇 가지 향상된 기능을 제공합니다. 더 빠르고 정확하도록 설계되어 실시간 애플리케이션에 적합합니다. 주요 기능은 다음과 같습니다: 

  • 향상된 속도와 정확성
  • 여러 작업을 위한 사전 학습된 가중치
  • 객체 감지, 세분화 및 분류 지원
  • 성능 향상을 위한 모델 아키텍처 개선

YOLOv8 에서 실행 Python

다음은 몇 줄의 코드만으로 YOLOv8 를 시작하는 방법입니다:

코드 복사


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
results = model.predict('path/to/your/image.jpg')
results.show()

이제 끝났습니다! 방금 이미지에 YOLOv8 모델을 실행했습니다. 이러한 단순함이 Ultralytics 모델을 강력하고 사용자 친화적으로 만드는 이유입니다.

라이브 웹캠 감지

라이브 웹캠 피드에서 YOLOv8 작동하는 모습을 보고 싶으신가요? 방법은 다음과 같습니다:

python

코드 복사


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
# Open a live webcam feed
cap = cv2.VideoCapture(0)
while True:
	ret, frame = cap.read()
	if not ret:
		break
	results = model.predict(frame)
	results.show()
	if cv2.waitKey(1) & 0xFF == ord('q'):
		break
cap.release()
cv2.destroyAllWindows()

이 스크립트는 웹캠을 열고 YOLOv8 모델을 적용하여 실시간으로 객체를 감지합니다.

그림 1. 니콜라이 닐슨이 Ultralytics 객체 감지 및 세분화 모델을 실행하는 방법을 설명합니다.

다른 모델 살펴보기

Ultralytics 는 YOLOv8 에서 멈추지 않습니다. YOLOv5 , YOLO-NAS, 실시간 탐지를 위한 트랜스포머 기반 모델 등 다양한 다른 모델도 지원합니다. 각 모델에는 고유한 강점과 사용 사례가 있습니다.

트랜스포머 모델 및 실행 방법

바이두에서 개발하고 Ultralytics 에서 지원하는 RT-DETR 모델은 실시간 성능과 높은 정확도를 제공하는 최첨단 엔드투엔드 객체 감지기입니다. 이 모델은 실시간 속도를 위해 conv 기반 백본과 효율적인 하이브리드 인코더를 사용하며, CUDA( TensorRT)에서 뛰어난 성능을 발휘하고 유연한 추론 속도 조정을 지원합니다.

RT-DETR 모델을 실행하는 방법은 다음과 같습니다:

코드 복사


from Ultralytics import YOLO
# Load a pretrained YOLOv8n model
model = YOLO("rtdetr-l.pt")

# Run inference on 'bus.jpg' with arguments
model.predict("bus.jpg", save=True, imgsz=320, conf=0.5)

"무엇이든 모델 세분화

Ultralytics 는 MobileSAM 및 FastSAM 과 같은 세분화 작업용 모델도 제공합니다. 이러한 모델은 이미지의 모든 것을 세분화하여 장면에 대한 자세한 인사이트를 제공하도록 설계되었습니다.

실행 중 FastSAM

FastSAM 는 실시간 세분화에 최적화되어 있으며, 이를 실행하는 방법은 다음과 같습니다:

코드 복사


import ultralytics
model = ultralytics.SAM("FastSAM-s.pt")
results = model.predict('path/to/your/image.jpg')
results.show()

이 모델은 빠르고 정확한 세분화가 필요한 애플리케이션에 적합합니다.

성능 및 비교

Ultralytics 프레임워크의 훌륭한 기능 중 하나는 여러 모델을 나란히 비교할 수 있는 기능입니다. 추론 속도 및 평균 정밀도(mAP)와 같은 성능 메트릭을 살펴봄으로써 특정 애플리케이션에 가장 적합한 모델을 쉽게 결정할 수 있습니다.

주요 내용

Ultralytics 를 사용하면 몇 줄의 코드만으로 객체 감지 및 세분화 모델을 매우 쉽게 실행할 수 있습니다. 실시간 애플리케이션에서 작업 중이거나 고정밀 모델이 필요한 경우 Ultralytics 에서 솔루션을 찾아보세요. 더 자세한 정보와 예제를 보려면 Ultralytics YouTube 채널에서 Nicolai Nielsen의 전체 튜토리얼을 확인하세요.

Ultralytics 커뮤니티에서 더 많은 튜토리얼과 업데이트를 기대해주세요!

Facebook 로고트위터 로고LinkedIn 로고복사 링크 기호

이 카테고리에서 자세히 보기

인공지능의 미래
를 함께 만들어 갑시다!

머신 러닝의 미래와 함께하는 여정 시작하기