グリーンチェック
クリップボードにコピーされたリンク

ランニング Ultralytics 数行のコードで実現するオブジェクト検出モデルとセグメンテーションモデル

Ultralytics オブジェクト検出とセグメンテーションモデルを数行のコードで実行する方法についてのステップバイステップガイド。

Ultralytics 「YOLOv5」と「 」の機能について掘り下げていく。 YOLOv8モデルについて掘り下げていきます。ほんの数行のコードで、これらの使いやすいモデルをプロジェクトに統合する方法を探ります。初心者の方でも、経験豊富な開発者の方でも、YOLO のバージョン違いやトランスフォーマベースのモデルなど、Ultralytics がどのようにさまざまなモデルやアーキテクチャをサポートしているかをご覧いただけます。 

Nicolai Nielsen 氏のビデオでは、Ultralytics フレームワーク内で様々なモデルを設定し、使用するプロセスを説明しています。ステップ・バイ・ステップで分解し、これらの素晴らしいツールをどのように使い始めることができるかを見てみよう。

Ultralytics モデル

Ultralytics は、複数のオブジェクト検出とセグメンテーションモデルをサポートする包括的なフレームワークを提供する。これには、YOLOv3 から最新のYOLOv8 までの一般的なYOLO モデルに加え、YOLO-NAS およびSAM モデルが含まれる。これらのモデルは、リアルタイムの検出セグメンテーションポーズ推定など、さまざまなタスクを処理するように設計されている。

手始めに、Ultralytics のドキュメントページをご覧ください。ここには、各モデルの主な機能、アーキテクチャ、Python スクリプトでの使用方法など、各モデルに関する詳細な情報が記載されています。

環境の設定

まず、Ultralytics がインストールされていることを確認してください。これは

bash

コピーコード


pip install ultralytics

これが終われば、プロジェクトでこれらのモデルを使い始めることができる。例としてYOLOv8 。

主な特徴YOLOv8

YOLOv8 は、前作よりもいくつかの機能が強化されています。より速く、より正確に設計されており、リアルタイム・アプリケーションに最適です。主な機能は以下の通り: 

  • スピードと精度の向上
  • 複数のタスクに対して事前に訓練された重み
  • オブジェクト検出、セグメンテーション、分類のサポート
  • パフォーマンス向上のためのモデル・アーキテクチャの改良

YOLOv8 Python

わずか数行のコードでYOLOv8 :

コピーコード


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
results = model.predict('path/to/your/image.jpg')
results.show()

以上です!画像に対してYOLOv8 モデルを実行しただけです。このシンプルさが、Ultralytics のモデルを非常にパワフルで使いやすいものにしているのです。

ライブ・ウェブカメラ検出

YOLOv8 、ライブ・ウェブカメラ・フィードでその動きをご覧になりたいですか?その方法はこちら:

python

コピーコード


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
# Open a live webcam feed
cap = cv2.VideoCapture(0)
while True:
	ret, frame = cap.read()
	if not ret:
		break
	results = model.predict(frame)
	results.show()
	if cv2.waitKey(1) & 0xFF == ord('q'):
		break
cap.release()
cv2.destroyAllWindows()

このスクリプトはウェブカメラを開き、YOLOv8 モデルを適用してリアルタイムでオブジェクトを検出します。

図1.Ultralytics オブジェクト検出とセグメンテーションモデルの実行方法を説明するニコライ・ニールセン

他のモデルを探る

Ultralytics は、YOLOv8 にとどまらない。YOLOv5 、YOLO-NAS、リアルタイム検出のためのトランスフォーマーベースのモデルなど、他にもさまざまなモデルをサポートしている。各モデルにはそれぞれ長所と使用例がある。

変圧器のモデルと運転方法

バイドゥによって開発され、Ultralytics によってサポートされているRT-DETR モデルは、リアルタイム性能と高精度を提供する最先端のエンドツーエンド物体検出器である。convベースのバックボーンと効率的なハイブリッド・エンコーダを使用し、TensorRT との連携により、CUDA をリアルタイムで高速化し、推論速度の柔軟な調整をサポートしています。

RT-DETR :

コピーコード


from Ultralytics import YOLO
# Load a pretrained YOLOv8n model
model = YOLO("rtdetr-l.pt")

# Run inference on 'bus.jpg' with arguments
model.predict("bus.jpg", save=True, imgsz=320, conf=0.5)

「セグメント何でもモデル

Ultralytics また、MobileSAM やFastSAM のような、セグメンテーションタスク用のモデルも提供している。これらのモデルは、画像内のあらゆるものをセグメンテーションし、シーンに対する詳細な洞察を提供するように設計されている。

ランニングFastSAM

FastSAM はリアルタイム・セグメンテーションに最適化されている:

コピーコード


import ultralytics
model = ultralytics.SAM("FastSAM-s.pt")
results = model.predict('path/to/your/image.jpg')
results.show()

このモデルは、迅速かつ正確なセグメンテーションを必要とするアプリケーションに最適です。

パフォーマンスと比較

Ultralytics フレームワークの素晴らしい特徴のひとつは、異なるモデルを並べて比較できることです。推論速度や平均平均精度(mAP)などの性能指標を見ることで、どのモデルがあなたの特定のアプリケーションに最適かを簡単に判断することができます。

主な収穫

Ultralytics を使えば、わずか数行のコードで驚くほど簡単にオブジェクト検出とセグメンテーションモデルを実行できます。リアルタイム・アプリケーションに取り組んでいる場合でも、高精度のモデルが必要な場合でも、Ultralytics 。より詳細な情報と例については、Ultralytics YouTubeチャンネルにあるNicolai Nielsenの完全なチュートリアルを必ずチェックしてください。

Ultralytics コミュニティからのチュートリアルや最新情報にご期待ください!

Facebookのロゴツイッターのロゴリンクトインのロゴコピー・リンク・シンボル

このカテゴリの続きを読む

AIの未来
を一緒に作りましょう!

機械学習の未来への旅を始めよう