X
Ultralytics YOLOv8.2 リリースUltralytics YOLOv8.2 モバイル・リリースUltralytics YOLOv8.2 リリース・アロー
グリーンチェック
クリップボードにコピーされたリンク

YOLOv8 、推論用のモデルをエクスポートして最適化する。OpenVINO

OpenVINO を使用して、推論のためにYOLOv8 モデルを最適化する。ガイドに従って、PyTorch のモデルをONNX に変換し、リアルタイムアプリケーション用に最適化してください。

このブログポストでは、 を使って、事前学習済みまたはカスタム学習済みのモデルをエクスポートし、最適化する方法を紹介する。 Ultralytics YOLOv8 OpenVINOモデルをエクスポートして最適化する方法を紹介します。 Intel ベースのシステムを使用している場合、それがCPU であれGPU であれ、このガイドでは最小限の労力でモデルを大幅に高速化する方法を紹介します。

なぜOpenVINO でYOLOv8 を最適化するのか?

でYOLOv8 モデルを最適化することで、推論タスクにおいて最大3倍のスピードアップが可能です。 OpenVINOIntel CPUこの性能向上は、物体検出から セグメンテーション、セキュリティーシステムに至るまで、リアルタイムアプリケーションにおいて大きな違いをもたらす。

YOLOv8 モデルのエクスポートと最適化のステップ

プロセスを理解する

まず最初に、プロセスを分解してみよう。PyTorch のモデルをONNX に変換し、OpenVINO を使って最適化します。このプロセスにはいくつかの簡単なステップがあり、TensorFlow 、PyTorch 、Caffe、ONNX など、さまざまなモデルやフォーマットに適用できます。

モデルのエクスポート

Ultralytics のドキュメントを読んでみると、YOLOv8 モデルのエクスポートには、Ultralytics フレームワークのエクスポート・メソッドを使用する必要があることがわかります。このメソッドによって、モデルをPyTorch から ONNXに変換し、最後にOpenVINO 用に最適化します。その結果、Intel の強力なハードウェアを活用することで、モデルの実行速度が大幅に向上する。

依存関係のインストール

エクスポート・スクリプトを実行する前に、必要な依存関係がすべてインス トールされていることを確認する必要がある。これには、Ultralytics ライブラリ、ONNX 、OpenVINO が含まれます。これらのパッケージのインストールは、Python パッケージインストーラである pip を使って簡単に行うことができます。

エクスポート・スクリプトの実行

環境がセットアップされたら、エクスポートスクリプトを実行できます。このスクリプトは、PyTorch のモデルをONNX に変換し、さらにOpenVINO に変換します。このプロセスは簡単で、1つの関数を呼び出してエクスポートを処理します。Ultralytics フレームワークを使えば、モデルの変換と最適化が簡単にでき、最小限の手間で最高のパフォーマンスを得ることができます。

図1.エクスポートスクリプトの実行方法を説明するニコライ・ニールセン

パフォーマンスの比較

エクスポート後、元のモデルと最適化されたモデルのパフォーマンスを比較することが重要です。両方のモデルの推論時間をベンチマークすることで、パフォーマンスの向上がはっきりとわかります。通常、OpenVINO モデルは、元のPyTorch モデルと比較して推論時間が大幅に短縮されます。これは特に、性能向上が最も顕著になる大きなモデルに当てはまります。

実際の応用と利点

OpenVINO を使ってYOLOv8 モデルを最適化することは、リアルタイム処理を必要とするアプリケーションに特に有益である。以下はその例である:

  • セキュリティ・システムリアルタイムで物体を検知することで、警備員に即座に警告を発することができ、安全性と対応力が向上します。
  • 自動運転車推論速度が速くなれば、自律走行システムの応答性が向上し、より安全で信頼性の高いものになる。
  • ヘルスケア診断ツール用の迅速な画像処理は、より迅速な結果を提供し、タイムリーな介入を可能にすることで、命を救うことができる。

これらの最適化を実装することで、パフォーマンスを向上させるだけでなく、アプリケーションの信頼性と効率性を高めることができます。これにより、ユーザー・エクスペリエンスが向上し、生産性が向上し、より革新的なソリューションが実現します。

まとめ

OpenVINO 用にYOLOv8 モデルをエクスポートして最適化することは、より高速で効率的な AI アプリケーションのためにIntel ハードウェアを活用する強力な方法です。いくつかの簡単なステップを踏むだけで、モデルのパフォーマンスを変換し、実世界のシナリオに効果的に適用することができます。

あなたのAIプロジェクトを強化し続けるために、Ultralytics のチュートリアルやガイドをぜひチェックしてください。 GitHubリポジトリにアクセスし、Ultralytics コミュニティに参加して、より多くの洞察とアップデートをお楽しみください。一緒にイノベーションを起こしましょう!

モデルを最適化することは、単にスピードを上げることではなく、新たな可能性を引き出し、AIソリューションが堅牢で、効率的で、将来に備えることができるようにすることであることを忘れてはならない。 

Facebookのロゴツイッターのロゴリンクトインのロゴコピー・リンク・シンボル

このカテゴリの続きを読む

AIの未来
を一緒に作りましょう!

機械学習の未来への旅を始めよう