用語集

推論エンジン

リアルタイム予測、モデルの最適化、クロスプラットフォーム展開など、推論エンジンがどのようにAIを強化するかをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

人工知能や機械学習の領域では、推論エンジンは、新しい未知のデータに対して予測を行うために学習済みモデルを展開する役割を担うコンポーネントである。学習済みモデルを実世界のデータに適用し、物体検出、画像分類、自然言語処理などのタスクを実行する。基本的には、機械学習の「推論」段階を推進するエンジンであり、学習されたパターンを使用して新しい入力を分析・解釈し、AIシステムがリアルタイムで問題を解決し、意思決定を行うことを可能にする。

推論エンジンの仕組み

推論エンジンは、すでに大規模なデータセットで大規模なトレーニングを受けた、事前にトレーニングされたモデルを使用して動作する。これらのモデルは、多くの場合 PyTorchこれらのモデルには、特定のタスクを実行するために必要な学習済みの知識が含まれている。画像やテキストなどの新しいデータが推論エンジンに入力されると、推論エンジンは事前に訓練されたモデルを通してこのデータを処理する。この処理により、オブジェクト検出バウンディングボックス、分類ラベル、または予測される感情などの出力が生成される。 Ultralytics YOLO推論エンジンは、例えば、リソースに制約のあるエッジデバイスから強力なクラウドサーバーまで、多様なプラットフォームでリアルタイムのオブジェクト検出、セグメンテーション、分類を実行するために利用されている。推論エンジンの効率は、実世界のアプリケーションにとって非常に重要であり、予測の速度と精度の両方に影響を与えます。

推論エンジンの主な特徴

  • リアルタイム推論:推論エンジンはスピード重視で設計されており、ダイナミックな環境で即座に意思決定ができるリアルタイム推論が可能です。
  • クロスプラットフォーム展開NVIDIA Jetsonのようなエッジ・デバイスからクラウド・インフラストラクチャまで、さまざまなハードウェアにまたがる展開をサポートし、汎用性と拡張性を確保する。
  • モデルの最適化:推論エンジンは、性能の向上と計算量の削減のために、モデルの量子化やモデルの刈り込みのような最適化技術を組み込むことが多い。
  • ハードウェアアクセラレータとの統合以下のようなハードウェアアクセラレータを活用できるように設計されています。 TensorRTおよび OpenVINOなどのハードウェア・アクセラレータを活用するように設計されています。
  • 複数のモデル形式をサポート:のような標準的なモデル形式との互換性により、異なるフレームワークで学習されたモデルとのシームレスな統合が可能になります。 ONNXのような標準的なモデル形式との互換性によって、異なるフレームワークで学習されたモデルとのシームレスな統合が可能になります。

推論エンジンの応用

1.自律走行

自動運転車では、推論エンジンが知覚システムの中核を担っている。カメラやLiDARなどのセンサーからのリアルタイムデータを処理し、物体、歩行者、車線標示を検出することで、車両の安全なナビゲーションを可能にします。 Ultralytics YOLO効率的な推論エンジンを使用してモデルを展開すると、自律走行車の安全性と応答性に不可欠な、迅速で正確な物体検出が可能になります。

2.医用画像解析

ヘルスケア分野では、推論エンジンが診断に革命をもたらしている。例えば、医療画像解析では、MRIやCTスキャンなどの医療画像の異常を検出するように訓練されたモデルを推論エンジンに導入し、放射線科医を支援することができる。これらのエンジンは画像を素早く分析し、潜在的な懸念領域を強調することができるため、診断のスピードと精度が向上し、脳腫瘍などの疾患の早期発見をサポートする。

最適化のテクニック

推論エンジンが最適に動作するように、様々な最適化技術が採用されている。モデルの量子化はモデルの重みの数値精度を下げ、モデルのサイズを小さくし、計算を高速化する。モデル刈り込みは、ニューラルネットワーク内の重要度の低い接続を削除し、モデルを単純化し、精度を大きく損なうことなく速度を向上させます。ハードウェア固有の最適化、例えば NVIDIA TensorRTNVIDIA を活用するなど、ハードウェアに特化した最適化により、モデルの実行をハードウェアアーキテクチャーに合わせて調整することで、推論速度がさらに向上します。

推論エンジンと関連概念の区別

推論エンジンはAIモデルを展開するために重要だが、以下のような学習フレームワークとは異なる。 PyTorchなどの学習フレームワークとは異なる。推論エンジンは、すでに訓練されたモデルのデプロイと実行にのみ焦点を当てている。また、モデルを実世界の環境で利用可能にし、運用可能にするための広範な戦略や方法論を包含する、モデルデプロイメントプラクティスとも異なります。

結論

推論エンジンは、AIや機械学習モデルを研究室から実世界のアプリケーションに導入するために不可欠です。多様な環境で高速かつ正確な予測を実現するその能力は、現代のAIインフラストラクチャの要となっている。AIの導入を合理化しようとする人々のために、Ultralytics HUBのようなプラットフォームは、堅牢な推論エンジンを搭載したAIモデルを効率的に導入・管理するためのツールとリソースを提供しています。

すべて読む