用語集

モデルの展開

MLモデルを予測、自動化、AI主導の洞察のための実世界ツールに変換する、モデル展開のエッセンスをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

モデルデプロイメントとは、学習済みの機械学習(ML)モデルを 本番環境で使用できるようにする重要なプロセスである。このステップは、モデルを開発またはテスト段階から、新しい実世界のデータに対して予測(推論)を生成できる運用ツールへと移行させる。これは機械学習のライフサイクルにおいて非常に重要な段階であり、MLモデルを構築することと、アプリケーション、システム、またはビジネスプロセスにおいて価値を提供するために実際に使用することのギャップを埋める。デプロイメントを理解することは、基本的なMLの概念に精通し、自分のモデルが効果的に適用されることを望む人にとって不可欠である。

モデル展開の妥当性

効果的な展開がなければ、最も正確なモデルであっても学術的な演習にとどまり、具体的な利益を提供することはできない。AIとMLプロジェクトにおける投資収益率(ROI)を実現するためには、導入が不可欠である。これにより、組織はタスクを自動化し、データから実用的な洞察を得て、ユーザー体験を向上させ、情報に基づいた意思決定を行うことができる。デプロイメントを成功させることで、モデルのトレーニングに投資したリソースが実用的な成果につながることが保証される。継続的な運用には、多くの場合、データのドリフトなどの要因によって時間の経過とともにパフォーマンスが低下しないように、モデルのモニタリングとメンテナンスが必要です。モデル展開のベストプラクティスに従うことが成功の鍵です。

モデル展開の応用

モデルの導入は、業界を問わず、AIを活用した膨大なアプリケーションを可能にする。具体例をいくつか紹介しよう:

モデル展開における重要な考慮事項

MLモデルを効果的に配備するには、いくつかの要素について慎重に計画を立てる必要がある:

モデル展開と関連概念

モデル展開を関連する段階や概念と区別することは有益である:

  • モデルのトレーニング:これは、トレーニングデータを使ってモデルを学習させるプロセスである。満足のいくモデルが学習された後、デプロイメントが行われます(モデル学習のヒント)。
  • 推論:これは、トレーニングされデプロイされたモデルが、新しいデータに対して予測を行うプロセスである。デプロイメントによって本番環境での推論が可能になる。YOLO スレッドセーフ推論について読む。
  • モデルサーヴィング:モデルをホストし、推論リクエストに効率的に応答するためにセットアップされたインフラ(ハードウェアとソフトウェア)を指す。デプロイの中核をなすコンポーネントである(Model Serving用語集)。

ツールとプラットフォーム

様々なツールやプラットフォームがデプロイプロセスを簡素化する。MLフレームワーク PyTorchTensorFlowやTensorFlowのようなMLフレームワークはモデルを様々なフォーマット(例えば ONNX, TensorRT, CoreMLモデル展開オプションガイド)。Ultralytics HUBのようなプラットフォームは、トレーニングUltralytics HUB Cloud Training)、トラッキング、コンピュータビジョンモデルのデプロイのための統合ソリューションを提供し、開発から生産までのワークフローを合理化します(Train and deployYOLO11 usingUltralytics HUB)。AWSAzureGoogle Cloudなどのクラウドプロバイダーも包括的なデプロイメントサービスを提供しています。

すべて読む