Yolo 深圳
深セン
今すぐ参加
用語集

モデルサービング

モデル提供が、トレーニング済みモデルと本番環境の間のギャップを埋める方法を学びましょう。Ultralytics 上Ultralytics Ultralytics デプロイ戦略を探求します。

モデルサービングとは、学習済み機械学習モデルをホストし、その機能をネットワークインターフェースを介してソフトウェアアプリケーションに提供するためのプロセスである。これは、ディスクに保存された静的なモデルファイルと、現実世界のデータを処理する稼働システムとの間の橋渡し役として機能する。 モデルが機械学習(ML)のトレーニングフェーズを完了すると、 画像、テキスト、表形式データなどの入力を受け取り予測を返すことができる 本番環境に統合される必要があります。 これは通常、モデルをアプリケーションプログラミングインターフェース(API)でラップすることで実現され、 ウェブサーバー、モバイルアプリ、IoTデバイスとの通信を可能にします。

AIにおけるモデル提供の役割

モデルサービシングの主な目的は、 予測モデリング機能を効果的に運用することです。 トレーニングが精度と損失の最小化に焦点を当てるのに対し、サービシングは レイテンシー(予測結果が返される速度)やスループット(1秒あたりに処理可能なリクエスト数)といった パフォーマンス指標に重点を置きます。 堅牢なサービングインフラは、 コンピュータービジョン(CV)システムが 高負荷下でも信頼性を維持することを保証します。 これには、Dockerなどのツールを用いた コンテナ化技術が頻繁に採用されます。 コンテナ化ではモデルとその依存関係をパッケージ化し、 異なるコンピューティング環境間で一貫した動作を保証します。

実際のアプリケーション

モデルサービングは、データに基づいて即座に意思決定ができるようにすることで、様々な業界におけるユビキタスAI機能を強化します。 データ

  • スマート製造:産業環境において、 製造システムに導入されたAIは サーブドモデルを用いて組立ラインを検査する。部品の高解像度画像はローカルサーバーに送信され、 YOLO26モデルが傷や位置ずれなどの欠陥を検出すると、 直ちにアラートを発して不良品を排除する。
  • 小売自動化:小売業者は小売分野でAIを活用し、顧客体験を向上させている。 物体検出モデルを搭載したカメラが レジエリア内の商品を識別し、手動でのバーコードスキャンを必要とせず 総額を自動的に計算する。

実践的な実施

モデルを効果的に活用するには、多くの場合、 モデルをONNXのような標準化された形式にエクスポートすることが有益です。 ONNXにエクスポートすることが有益な場合が多く、これにより異なるトレーニングフレームワークとサービングエンジン間の相互運用性が促進されます。以下の例では、サービングエンドポイント内で存在するロジックをシミュレートし、モデルを読み込んで推論を実行する方法を示します。 Python

from ultralytics import YOLO

# Load the YOLO26 model (this typically happens once when the server starts)
model = YOLO("yolo26n.pt")

# Simulate an incoming API request with an image source URL
image_source = "https://ultralytics.com/images/bus.jpg"

# Run inference to generate predictions for the user
results = model.predict(source=image_source)

# Process results (e.g., simulating a JSON response to a client)
print(f"Detected {len(results[0].boxes)} objects in the image.")

正しい戦略の選択

サービング戦略の選択は、具体的なユースケースに大きく依存します。オンラインサービングは RESTやgRPCなどのプロトコルを介した即時応答を提供し、 ユーザー向けWebアプリケーションに不可欠です。 一方、バッチサービングは大量のデータをオフラインで処理し、 夜間レポート生成などのタスクに適しています。 インターネット依存なしでプライバシーや低遅延を必要とするアプリケーションでは、 エッジAIがサービング処理をデバイスに直接移行し、 最適化されたフォーマット(例: TensorRT などの最適化されたフォーマットを活用し、 制約のあるハードウェア上でのパフォーマンスを最大化します。多くの組織は Ultralytics 、クラウドAPIやエッジデバイスを含む 様々なエンドポイントへのモデル展開を簡素化しています。

関連用語との区別

「モデル提供」はモデルデプロイメントや 推論と密接に関連しているものの、これらは別個の概念である。

  • モデルデプロイメント:これは、モデルを本番環境にリリースするより広範なライフサイクル段階を指します。 サービングは、デプロイされたモデルを実行するために使用される特定のメカニズムまたはソフトウェア(NVIDIA Triton ServerTorchServe など)です。
  • 推論:これは入力から予測値を計算する数学的行為である。モデル提供は、エンドユーザー向けに推論を確実に実行可能にするインフラストラクチャ(ネットワーク、スケーラビリティ、セキュリティ)を提供する。
  • マイクロサービス:サービスはしばしば一連のマイクロサービスとして設計される。 モデルは独立したサービスとして動作し、 アプリケーションの他の部分がクエリを実行できる。 データ交換にはJSONのような軽量な形式が頻繁に使用される。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加