OpenVINO を使ってUltralytics YOLOv8 モデルを推論用に最適化する。PyTorch モデルをONNX に変換し、リアルタイムアプリケーション用に最適化するためのガイドに従ってください。
このブログポストでは、 を使って、事前学習済みまたはカスタム学習済みのモデルをエクスポートし、最適化する方法を紹介する。 Ultralytics YOLOv8 OpenVINOモデルをエクスポートして最適化する方法を紹介します。 Intel ベースのシステムを使用している場合、それがCPU であれGPU であれ、このガイドでは最小限の労力でモデルを大幅に高速化する方法を紹介します。
でYOLOv8 モデルを最適化することで、推論タスクにおいて最大3倍のスピードアップが可能です。 OpenVINOIntel CPUこの性能向上は、物体検出から セグメンテーション、セキュリティーシステムに至るまで、リアルタイムアプリケーションにおいて大きな違いをもたらす。
まず最初に、プロセスを分解してみよう。PyTorch のモデルをONNX に変換し、OpenVINO を使って最適化します。このプロセスにはいくつかの簡単なステップがあり、TensorFlow 、PyTorch 、Caffe、ONNX など、さまざまなモデルやフォーマットに適用できます。
Ultralytics のドキュメントを読んでみると、YOLOv8 モデルのエクスポートには、Ultralytics フレームワークのエクスポート・メソッドを使用する必要があることがわかります。このメソッドによって、モデルをPyTorch から ONNXに変換し、最後にOpenVINO 用に最適化します。その結果、Intel の強力なハードウェアを活用することで、モデルの実行速度が大幅に向上する。
エクスポート・スクリプトを実行する前に、必要な依存関係がすべてインス トールされていることを確認する必要がある。これには、Ultralytics ライブラリ、ONNX 、OpenVINO が含まれます。これらのパッケージのインストールは、Python パッケージインストーラである pip を使って簡単に行うことができます。
環境がセットアップされたら、エクスポートスクリプトを実行できます。このスクリプトは、PyTorch のモデルをONNX に変換し、さらにOpenVINO に変換します。このプロセスは簡単で、1つの関数を呼び出してエクスポートを処理します。Ultralytics フレームワークを使えば、モデルの変換と最適化が簡単にでき、最小限の手間で最高のパフォーマンスを得ることができます。
エクスポート後、元のモデルと最適化されたモデルのパフォーマンスを比較することが重要です。両方のモデルの推論時間をベンチマークすることで、パフォーマンスの向上がはっきりとわかります。通常、OpenVINO モデルは、元のPyTorch モデルと比較して推論時間が大幅に短縮されます。これは特に、性能向上が最も顕著になる大きなモデルに当てはまります。
OpenVINO を使ってYOLOv8 モデルを最適化することは、リアルタイム処理を必要とするアプリケーションに特に有益である。以下はその例である:
これらの最適化を実装することで、パフォーマンスを向上させるだけでなく、アプリケーションの信頼性と効率性を高めることができます。これにより、ユーザー・エクスペリエンスが向上し、生産性が向上し、より革新的なソリューションが実現します。
OpenVINO 用にYOLOv8 モデルをエクスポートして最適化することは、より高速で効率的な AI アプリケーションのためにIntel ハードウェアを活用する強力な方法です。いくつかの簡単なステップを踏むだけで、モデルのパフォーマンスを変換し、実世界のシナリオに効果的に適用することができます。
あなたのAIプロジェクトを強化し続けるために、Ultralytics のチュートリアルやガイドをぜひチェックしてください。 GitHubリポジトリにアクセスし、Ultralytics コミュニティに参加して、より多くの洞察とアップデートをお楽しみください。一緒にイノベーションを起こしましょう!
モデルを最適化することは、単にスピードを上げることではなく、新たな可能性を引き出し、AIソリューションが堅牢で、効率的で、将来に備えることができるようにすることであることを忘れてはならない。