Ultralytics オブジェクト検出とセグメンテーションモデルを数行のコードで実行する方法についてのステップバイステップガイド。
Ultralytics 「YOLOv5」と「 」の機能について掘り下げていく。 YOLOv8モデルについて掘り下げていきます。ほんの数行のコードで、これらの使いやすいモデルをプロジェクトに統合する方法を探ります。初心者の方でも、経験豊富な開発者の方でも、YOLO のバージョン違いやトランスフォーマベースのモデルなど、Ultralytics がどのようにさまざまなモデルやアーキテクチャをサポートしているかをご覧いただけます。
Nicolai Nielsen 氏のビデオでは、Ultralytics フレームワーク内で様々なモデルを設定し、使用するプロセスを説明しています。ステップ・バイ・ステップで分解し、これらの素晴らしいツールをどのように使い始めることができるかを見てみよう。
Ultralytics は、複数のオブジェクト検出とセグメンテーションモデルをサポートする包括的なフレームワークを提供する。これには、YOLOv3 から最新のYOLOv8 までの一般的なYOLO モデルに加え、YOLO-NAS およびSAM モデルが含まれる。これらのモデルは、リアルタイムの検出、セグメンテーション、ポーズ推定など、さまざまなタスクを処理するように設計されている。
手始めに、Ultralytics のドキュメントページをご覧ください。ここには、各モデルの主な機能、アーキテクチャ、Python スクリプトでの使用方法など、各モデルに関する詳細な情報が記載されています。
まず、Ultralytics がインストールされていることを確認してください。これは
bash
コピーコード
1<pre style="width: 75%;">
2<code>
3pip install ultralytics
4</code>
5</pre>
これが終われば、プロジェクトでこれらのモデルを使い始めることができる。例としてYOLOv8 。
YOLOv8 は、前作よりもいくつかの機能が強化されています。より速く、より正確に設計されており、リアルタイム・アプリケーションに最適です。主な機能は以下の通り:
わずか数行のコードでYOLOv8 :
コピーコード
<pre style="width: 75%;">
<code>
# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
results = model.predict('path/to/your/image.jpg')
results.show()
</code>
</pre>
以上です!画像に対してYOLOv8 モデルを実行しただけです。このシンプルさが、Ultralytics のモデルを非常にパワフルで使いやすいものにしているのです。
YOLOv8 、ライブ・ウェブカメラ・フィードでその動きをご覧になりたいですか?その方法はこちら:
python
コピーコード
1<pre style="width: 75%;">
2<code>
3# Copy code
4import ultralytics
5model = ultralytics.YOLO('yolov8')
6# Open a live webcam feed
7cap = cv2.VideoCapture(0)
8while True:
9 ret, frame = cap.read()
10 if not ret:
11 break
12 results = model.predict(frame)
13 results.show()
14 if cv2.waitKey(1) & 0xFF == ord('q'):
15 break
16cap.release()
17cv2.destroyAllWindows()
18</code>
19</pre>
このスクリプトはウェブカメラを開き、YOLOv8 モデルを適用してリアルタイムでオブジェクトを検出します。
Ultralytics は、YOLOv8 にとどまらない。YOLOv5 、YOLO-NAS、リアルタイム検出のためのトランスフォーマーベースのモデルなど、他にもさまざまなモデルをサポートしている。各モデルにはそれぞれ長所と使用例がある。
バイドゥによって開発され、Ultralytics によってサポートされているRT-DETR モデルは、リアルタイム性能と高精度を提供する最先端のエンドツーエンド物体検出器である。convベースのバックボーンと効率的なハイブリッド・エンコーダを使用し、TensorRT との連携により、CUDA をリアルタイムで高速化し、推論速度の柔軟な調整をサポートしています。
RT-DETR :
コピーコード
1<pre style="width: 75%;">
2<code>
3from Ultralytics import YOLO
4# Load a pretrained YOLOv8n model
5model = YOLO("rtdetr-l.pt")
6
7# Run inference on 'bus.jpg' with arguments
8model.predict("bus.jpg", save=True, imgsz=320, conf=0.5)
9</code>
10</pre>
Ultralytics また、MobileSAM やFastSAM のような、セグメンテーションタスク用のモデルも提供している。これらのモデルは、画像内のあらゆるものをセグメンテーションし、シーンに対する詳細な洞察を提供するように設計されている。
FastSAM はリアルタイム・セグメンテーションに最適化されている:
コピーコード
1<pre style="width: 75%;">
2<code>
3import ultralytics
4model = ultralytics.SAM("FastSAM-s.pt")
5results = model.predict('path/to/your/image.jpg')
6results.show()
7</code>
8</pre>
このモデルは、迅速かつ正確なセグメンテーションを必要とするアプリケーションに最適です。
Ultralytics フレームワークの素晴らしい特徴のひとつは、異なるモデルを並べて比較できることです。推論速度や平均平均精度(mAP)などの性能指標を見ることで、どのモデルがあなたの特定のアプリケーションに最適かを簡単に判断することができます。
Ultralytics を使えば、わずか数行のコードで驚くほど簡単にオブジェクト検出とセグメンテーションモデルを実行できます。リアルタイム・アプリケーションに取り組んでいる場合でも、高精度のモデルが必要な場合でも、Ultralytics 。より詳細な情報と例については、Ultralytics YouTubeチャンネルにあるNicolai Nielsenの完全なチュートリアルを必ずチェックしてください。
Ultralytics コミュニティからのチュートリアルや最新情報にご期待ください!