Ultralytics を使ったオブジェクトトラッキングをご覧ください!リアルタイムのアプリケーションのために、YOLO モデルを使ってビデオ内の動き、行動、インタラクションを追跡する方法を学びます。
オブジェクトトラッキングはコンピュータビジョン(CV)の基本的なタスクであり、一連のビデオフレームやカメラフィードの中を移動する特定のオブジェクトを識別し、追跡することを含む。個々の静止画像や単一のビデオフレーム内のオブジェクトの位置を特定することに焦点を当てるオブジェクト検出とは異なり、オブジェクトトラッキングはこれらのオブジェクトのアイデンティティと軌跡を時間と共に維持します。この継続的なモニタリングにより、システムはダイナミックな環境における物体の動き、行動、相互作用を理解することができ、検出だけよりも豊かな洞察を得ることができます。これは多くのVision AIアプリケーションのコアコンポーネントです。
物体追跡は通常、次のような物体検出器を使用して最初のフレームで物体を検出することから始まります。 Ultralytics YOLOモデルなどのオブジェクト検出器を用いて、最初のフレームでオブジェクトを検出することから始まります。一度オブジェクトが検出されると、多くの場合バウンディングボックスで表現され、トラッキングアルゴリズムはそのオブジェクトにユニークなIDを割り当てます。後続のフレームでは、アルゴリズムは、位置、速度、および外観の特徴を含むかもしれないそのオブジェクトの以前の状態に基づいて、オブジェクトの新しい位置を予測します。この予測には多くの場合、動き推定のような技術が使われる。次にシステムは、現在のフレームで新たに検出されたオブジェクトを既存の追跡オブジェクトと関連付け、それらのパスを更新し、一意のIDを維持する。
このプロセスでは、オブジェクトが一時的に隠れる(オクルージョン)、オブジェクトの外観の変化、複数のオブジェクト間の複雑な相互作用、照明やカメラの視点の変化など、いくつかの課題を処理する必要があります。これらに対処するために使用される一般的な手法には、動き予測と関連付けのためのカルマンフィルター(KF)のようなフィルタリング手法や、よりロバストなトラッキングのために動きと外観の特徴を組み合わせるSORT(Simple Online and Realtime Tracking)やDeepSORTのような、より高度なディープラーニング(DL)アプローチがあります。Ultralytics モデルは、これらの技術を実装するために利用可能な様々なトラッカーをサポートしています。効果的なオクルージョンの処理は、トラックの連続性を維持するために非常に重要です。
オブジェクト・トラッキングを他の関連するコンピュータ・ビジョン・タスクと区別することは重要である:
物体追跡、特に複数物体追跡(MOT)は、多くの実世界のAIアプリケーションにとって極めて重要です:
オブジェクト・トラッキングを実装するには、多くの場合、オブジェクト検出モデルとトラッキング・アルゴリズムを組み合わせる必要がある。OpenCVのような一般的なライブラリは、基本的なトラッキング機能を提供している。次のようなフレームワークは PyTorchや TensorFlowなどのフレームワークが、基礎となる検出モデルの構築と訓練に使用される。Ultralytics 、追跡機能を次のようなモデルに直接統合することで、このプロセスを簡素化している。 YOLO11.ユーザーは専用のトラック・モードを使って簡単にトラッキングを有効にすることができる。データのアノテーションから展開までのワークフロー全体を管理するために、Ultralytics HUBのようなプラットフォームは包括的なツールを提供しています。YOLO11 オブジェクト追跡ガイドのようなガイドに従って始めることができます。