グリーンチェック
クリップボードにコピーされたリンク

Ultralytics YOLO11手のキーポイント推定を強化

Ultralytics YOLO11リアルタイム・ジェスチャー認識などのアプリケーションにおけるポーズ推定サポートで、AI主導の手のキーポイント推定をお試しください。

最近、スーパーボウルの手話通訳が注目を集めている。テレビで彼らが好きなアーティストの曲を歌っているのを見ると、手話を知っている人なら、脳が彼らの手の動きを処理するので理解できる。しかし、もしコンピューターが同じことをできるとしたらどうだろう?AIによるハンド・トラッキング・ソリューションのおかげで、機械が手の動きを追跡し、驚くほど正確に解釈することが可能になった。

これらのソリューションの中核となるのが、コンピュータ・ビジョンである。コンピュータ・ビジョンは、機械が視覚情報を処理し理解することを可能にするAIのサブ分野である。画像やビデオを分析することで、ビジョンAIは物体を検出し、動きを追跡し、複雑なジェスチャーを驚くほど正確に認識することができる。

例えば、次のようなコンピュータビジョンモデルがある。 Ultralytics YOLO11のようなコンピュータビジョンモデルは、ポーズ推定を使用してリアルタイムで手のキーポイントを検出し、分析するように訓練することができる。そうすることで、これらのモデルはジェスチャー認識、手話翻訳、AR/VRインタラクションなどのアプリケーションに使用できる。 

この記事では、YOLO11 どのようにしてAIベースのハンドトラッキングを可能にするのか、トレーニングに使用されるデータセット、ハンドポーズ推定のためのモデルをカスタムトレーニングする方法について探ります。また、実際のアプリケーションについても見ていきます。始めよう!

AIによる手のキーポイント検出を理解する

AIは、手首や指先、指の関節などのキーポイントを特定することで、視覚データから手の動きを認識・追跡するために使用できる。ポーズ推定として知られるアプローチのひとつは、キーポイントをマッピングし、それらが時間とともにどのように変化するかを分析することで、コンピュータが人間の動きを理解するのを助ける。これにより、AIシステムは身体の姿勢、ジェスチャー、運動パターンを高い精度で解釈することができる。

コンピュータ・ビジョンのモデルは、画像やビデオを解析して手のキーポイントを特定し、その動きを追跡することでこれを可能にする。一旦これらのポイントがマッピングされると、AIはキーポイント間の空間的な関係や、それらが時間とともにどのように変化するかを分析することで、ジェスチャーを認識することができる。 

例えば、親指と人差し指の距離が縮まると、AIはそれをつまむ動作と解釈することができる。同様に、キーポイントがシーケンス内でどのように動くかを追跡することで、複雑な手のジェスチャーを特定し、将来の動きを予測することもできる。

図1.コンピュータビジョンによる手のキーポイント認識の例。

興味深いことに、ハンドトラッキングのためのポーズ推定は、スマートデバイスのハンズフリー操作から、ロボットの精度向上、ヘルスケアアプリケーションの支援まで、エキサイティングな可能性を開いてきた。AIとコンピュータビジョンが進化し続けるにつれ、ハンドトラッキングは、日常生活において技術をよりインタラクティブに、より身近に、より直感的にする上で、より大きな役割を果たすことになるだろう。

ポーズ推定のためのYOLO11 探る

AIベースのハンドトラッキングのソリューションの作り方に入る前に、ポーズ推定とYOLO11 このコンピュータビジョンタスクをどのようにサポートしているかを詳しく見てみましょう。オブジェクト全体を識別する標準的なオブジェクト検出とは異なり、ポーズ推定は、動きや姿勢を分析するために、関節、手足、エッジなどの主要なランドマークを検出することに重点を置いています。 

具体的には、Ultralytics YOLO11 11はリアルタイムのポーズ推定用に設計されています。トップダウン手法とボトムアップ手法の両方を活用することで、人物の検出とキーポイントの推定をワンステップで効率的に行い、スピードと精度で従来のモデルを凌駕しています。

YOLO11 、COCO-Poseデータセットで事前に訓練されており、頭、肩、肘、手首、腰、膝、足首など、人体のキーポイントを認識することができる。 

図2. YOLO11 使った人間の姿勢推定。

人間のポーズ推定だけでなく、YOLO11 カスタム・トレーニングにより、生物・無生物を問わず様々な物体のキーポイントを検出することができます。この柔軟性により、YOLO11 11は幅広いアプリケーションに最適な選択肢となります。

ハンドキーポイントデータセットの概要

モデルをカスタム・トレーニングする最初のステップは、データを集めてアノテーションを付けるか、プロジェクトのニーズに合った既存のデータセットを見つけることです。例えば、Hand Keypointsデータセットは、ハンドトラッキングとポーズ推定のためのVision AIモデルのトレーニングに適した出発点です。26,768枚の注釈付き画像により、手作業によるラベリングが不要になります。 

このデータセットは、Ultralytics YOLO11 ようなモデルを学習させ、手の動きの検出と追跡方法を迅速に学習させるために使用できる。データセットには、手首、指、関節をカバーする、手あたり21のキーポイントが含まれている。また、このデータセットのアノテーションは、リアルタイムメディア処理のためのAI搭載ソリューション開発ツールであるGoogle MediaPipeで生成されており、正確で信頼性の高いキーポイント検出が保証されている。 

図3.ハンドキーポイントデータセットに含まれる21のキーポイント。

このような構造化されたデータセットを使用することで、開発者は時間を節約し、データの収集やラベリングではなく、モデルのトレーニングや微調整に集中することができます。実際、データセットはすでにトレーニング用(18,776画像)と検証用(7,992画像)のサブセットに分かれており、モデルの性能を簡単に評価することができます。 

手のポーズ推定のためのYOLO11 トレーニング方法

手のポーズ推定のためのYOLO11 トレーニングは、特にUltralytics Python パッケージを使用することで、モデルのセットアップとトレーニングが簡単になります。Hand Keypointsデータセットはトレーニングパイプラインですでにサポートされているため、余分なフォーマットなしですぐに使用でき、時間と労力を節約できます。

トレーニングの流れはこうだ:

  • 環境を設定します:最初のステップは、Ultralytics Python パッケージをインストールすることです。
    ‍ 以下のリンクをクリックしてください。
  • ハンドキーポイントデータセットをロードする:YOLO11 このデータセットをネイティブにサポートしているので、自動的にダウンロードして準備することができる。
  • 事前にトレーニングされたモデルを使用する:事前にトレーニングされたYOLO11 ポーズ推定モデルを使用することで、精度を向上させ、トレーニングプロセスをスピードアップさせることができます。
  • モデルをトレーニングします: モデルは複数のトレーニングサイクルを経ることで、手のキーポイントの検出と追跡を学習する。
  • パフォーマンスをモニターする: Ultralytics パッケージには、精度や損失などの主要な指標を追跡するためのツールも組み込まれており、時間の経過とともにモデルが改善されていくことを確認するのに役立ちます。
    ‍。
  • 保存して展開:一度学習したモデルはエクスポートでき、リアルタイムのハンドトラッキングアプリケーションに使用できます。

カスタム学習モデルの評価

カスタムモデルを作成するステップを踏んでいくと、パフォーマンスのモニタリングが不可欠であることに気づきます。トレーニング中の進捗を追跡するとともに、トレーニング後にモデルを評価することは、ハンドのキーポイントを正確に検出し、追跡していることを確認するために非常に重要です。 

精度、損失値、平均平均精度(mAP)のような主要なパフォーマンスメトリクスは、モデルのパフォーマンスを評価するのに役立ちます。Ultralytics Python パッケージは、結果を視覚化し、実際のアノテーションと予測を比較するための組み込みツールを提供し、改善のための領域を簡単に見つけることができます。

モデルのパフォーマンスをよりよく理解するために、損失曲線、精度-再現率プロット、混同行列などの評価グラフを確認することができます。これらはトレーニングログで自動的に生成されます。 

これらのグラフは、オーバーフィッティング(モデルは訓練データを記憶しているが、新しいデータでは苦戦する)やアンダーフィッティング(モデルがパターンを十分に学習できず、正確に実行できない)といった問題を特定し、精度を向上させるための調整を導くのに役立つ。また、新しい画像や動画でモデルをテストすることは、実際のシナリオでモデルがどの程度機能するかを確認するために重要です。

AIによるハンドトラッキングソリューションの用途

次に、 Ultralytics YOLO11使ったハンドキーポイント推定の最もインパクトのあるアプリケーションをいくつか紹介しよう。

YOLO11リアルタイムのジェスチャー認識

例えば、手を振るだけでテレビの音量を調節したり、空中でスワイプするだけでスマートホームシステムをナビゲートできるとしよう。YOLO11 搭載するリアルタイム・ジェスチャー認識は、手の動きをリアルタイムで正確に検出することで、こうしたタッチフリーのインタラクションを可能にします。 

これは、AIカメラを使って手の要所を追跡し、ジェスチャーをコマンドとして解釈する仕組みだ。深度センサー付きカメラ、赤外線センサー、あるいは通常のウェブカメラが手の動きを捉え、YOLO11 そのデータを処理してさまざまなジェスチャーを認識する。例えば、このようなシステムは、曲を変更するためのスワイプ、ズームインするためのピンチ、音量を調整するための円形の動きの違いを見分けることができる。

手話認識のためのAIによる手のキーポイント検出

ハンドトラッキングのためのAIソリューションは、聴覚障害者と手話を知らない人との間のシームレスなコミュニケーションをサポートすることができる。例えば、カメラやYOLO11 統合されたスマートデバイスを使えば、手話を即座にテキストや音声に翻訳することができる。 

YOLO11ような進歩のおかげで、手話翻訳ツールはより正確で利用しやすくなっている。これは、支援技術、ライブ翻訳サービス、教育プラットフォームなどのアプリケーションに影響を与える。AIは、コミュニケーションのギャップを埋め、職場、学校、公共スペースにおける包括性を促進するのに役立ちます。

ハンドトラッキングのためのコンピュータビジョン:ARとVR体験の向上

コントローラを使わずにオブジェクトをつかむことができるバーチャルリアリティ(VR)ゲームをプレイしたことがあるだろうか?コンピュータ・ビジョンを利用したハンド・トラッキングは、拡張現実(AR)やVR環境での自然なインタラクションを可能にします。 

図4.ハンドトラッキングはARとVRアプリケーションの重要な部分である。

Ultralytics YOLO11ようなモデルを使用した手のキーポイント推定により、AIはリアルタイムで動きを追跡し、ピンチ、つかみ、スワイプなどのジェスチャーを可能にする。これにより、ゲーム、バーチャルトレーニング、リモートコラボレーションが強化され、インタラクションがより直感的になります。ハンドトラッキング技術が向上すれば、ARやVRの没入感や臨場感はさらに高まるだろう。 

要点

Ultralytics YOLO11 手のキーポイント推定は、AI主導のハンド・トラッキング・ソリューションをより身近で信頼性の高いものにしています。リアルタイムのジェスチャー認識から手話通訳、AR/VRアプリケーションまで、コンピュータビジョンは人間とコンピュータの相互作用における新たな可能性を切り開いています。

また、合理化されたカスタムトレーニングと微調整プロセスにより、開発者は様々な実世界での用途に応じた効率的なモデルを構築できるようになっている。コンピュータ・ビジョン技術の進化に伴い、ヘルスケア、ロボット工学、ゲーム、セキュリティなどの分野でさらなるイノベーションが期待できる。

GitHubリポジトリで私たちのコミュニティと関わり、AIの進歩を探求してください。当社のソリューションページで、製造業における AI の影響とヘルスケアにおけるコンピュータビジョンをご覧ください。当社のライセンスプランを検討し、今すぐAIの旅を始めましょう!

Facebookのロゴツイッターのロゴリンクトインのロゴコピー・リンク・シンボル

このカテゴリの続きを読む

AIの未来
を一緒に作りましょう!

機械学習の未来への旅を始めよう