ONNX 、AIモデルの移植性と相互運用性を強化し、Ultralytics YOLO モデルの多様なプラットフォームへのシームレスな展開を可能にする方法をご覧ください。
人工知能と機械学習の領域では、最高のツールを活用し、多様な環境にモデルを展開するために、相互運用性が鍵となります。ONNX (Open Neural Network Exchange)は、機械学習モデルを表現するために構築されたオープンなフォーマットであり、AI開発者が単一のフレームワークに縛られることなく、異なるツール間でモデルを移動するプロセスを効率化できる。トレーニングに使用されるフレームワークに関係なく、モデルに統一された表現を提供し、様々な推論エンジン、ハードウェアプラットフォーム、環境でのモデルの展開をよりシンプルにします。
ONNX の主な関連性は、AIエコシステムにおける移植性と相互運用性を促進する能力にある。共通の演算子セットと機械学習モデルの標準フォーマットを定義することで、ONNX 。 PyTorchやTensorFlow のような異なる推論エンジンを使って学習したモデルを簡単に転送し、実行することができる。 TensorRTまたは OpenVINO.これは、Ultralytics YOLO モデルを使っている開発者にとって特に有益である。ONNX エクスポートは、クラウドサーバーからエッジデバイスまで、様々なプラットフォームへのモデルの展開を簡素化するからである。Ultralytics は、 形式へのモデルのエクスポートを容易にする。 YOLOv8ONNX 、最適化された推論エンジンを活用し、パフォーマンスの向上とリアルタイム推論の高速化を実現します。
ONNXフレームワーク間の互換性があるため、多くのAIアプリケーションで重宝されている。具体例を2つ挙げる:
ONNX を理解することは、モデル展開と最適化において役割を果たす関連概念を認識することでもある:
.pt
ファイル)をONNX フォーマットに変換する。Ultralytics は、次のような簡単なツールを提供している。 YOLO モデルのエクスポート をONNX やその他のフォーマットに変換する。ONNX を採用することで、開発者はAIのワークフローを大幅に簡素化し、デプロイの複雑さを軽減し、幅広いアプリケーションやプラットフォームでモデルが多用途かつ高性能であることを保証できる。