用語集

モデル・モニタリング

AIの精度を確保し、データドリフトを検出し、ダイナミックな実環境における信頼性を維持するためのモデルモニタリングの重要性をご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

モデルモニタリングとは、機械学習(ML)モデルが本番環境にデプロイされた後、そのパフォーマンスを追跡・評価する継続的なプロセスです。これには、モデルの精度、運用の健全性、およびデータ特性に関連する主要なメトリクスを観察し、モデルが長期にわたって期待どおりに動作することを確認することが含まれます。この実践は、機械学習運用(MLOps)ライフサイクルの重要な部分であり、デプロイされた人工知能(AI)システムが実環境で信頼性、有効性、および信頼性を維持することを保証します。モニタリングがなければ、モデルのパフォーマンスは無言のうちに低下し、予測精度の低下やビジネス上のマイナスの結果につながる可能性があります。

なぜモデル・モニタリングが重要なのか?

MLモデルは過去のデータに基づいてトレーニングされるが、現実の世界はダイナミックだ。データ・パターン、ユーザー行動、環境の変化は、デプロイ後にモデルのパフォーマンスを低下させる原因になり得る。モニタリングの主な理由は以下の通りです:

  • 性能劣化の検出:モデルは時間の経過とともに精度が低下することがあります。モニタリングは、精度リコールF1スコアなどのパフォーマンス指標の低下を特定するのに役立ちます。YOLO パフォーマンス・メトリクスについては、ガイドをご覧ください。
  • データ・ドリフトの特定入力データの統計的特性が変化することがあり、これはデータ・ドリフトとして知られる現象である。これはデータドリフトとして知られる現象である。これは、モデルが本番で目にするデータがトレーニングデータと大きく異なる場合に起こり得る。入力特徴を監視することは、このようなシフトを検出するのに役立ちます。
  • コンセプトドリフトを発見する:入力特徴とターゲット変数の関係は、時間とともに変化することがある(コンセプトドリフト)。例えば、顧客の嗜好が進化し、古い予測パターンが時代遅れになるかもしれない。コンセプト・ドリフトはモデルの再トレーニングや適応を必要とする。
  • 運用の健全性の確保:モニタリングは、推論レイテンシー、スループット、エラー率などの運用指標を追跡し、モデル提供インフラ(モデルサービング)が円滑に稼動していることを確認します。
  • 公平性と倫理の維持:モニタリングは、異なる人口統計グループまたはデータセグメントにわたるパフォーマンスを追跡することにより、AIの偏りを検出し緩和するのに役立ち、AIの倫理を促進する。

どのような側面が監視されるのか?

効果的なモデル・モニタリングには、通常、いくつかのカテゴリーのメトリクスを追跡する必要がある:

  • 予測パフォーマンス:精度、平均平均精度(mAP)AUC、エラー率などの指標で、多くの場合、検証中に確立されたベンチマークと比較される。
  • データの品質と完全性:入力データの欠損値、データタイプの不一致、範囲違反の追跡。
  • 入力データのドリフト:生産入力特徴の分布をトレーニングデータ分布と比較するための統計的尺度(母集団安定指数、コルモゴロフ・スミルノフ検定など)。
  • 予測/出力ドリフト:モデル予測値の分布を監視し、有意なシフトを検出する。
  • 運用指標:システムレベルのメトリクス CPU/GPU使用率、メモリ使用量、リクエストレイテンシー、スループットなどのシステムレベルのメトリクス。Prometheusのようなプラットフォームがよく使われます。
  • 公平性とバイアスメトリクス:人口統計学的パリティや均等化オッズのような指標を用いて、敏感な属性(年齢、性別、民族性など)間のモデル性能の格差を評価する。

モデル・モニタリングと関連概念

モデル・モニタリングは類似の用語と区別することが重要だ:

  • 観測可能性モニタリングが既知の障害モードを評価するために定義済みのメトリクスを追跡することに重点を置いているのに対して、観測可能性は未知のシステム状態や動作を探索し理解するためのツール(ログ、メトリクス、トレース)を提供します。監視によって異常が検出された場合、より深い調査が可能になります。
  • MLOpsMLOpsは、データ管理、モデルのトレーニング、デプロイメント、ガバナンス、モニタリングなど、MLのライフサイクル全体をカバーする、より広範なプラクティスの集合である。モデルモニタリングは、MLOpsフレームワークの中で重要なコンポーネントであり、特にデプロイ後のモデルの健全性に焦点を当てる。
  • モデルの評価:評価は通常、静的検証データまたはテストデータを使用して、モデルの品質を評価するために展開前に行われる。モニタリングは、展開後に本番データを用いて継続的に行われるプロセスです。モデルの評価と微調整に関する洞察はこちらをご覧ください。

実世界での応用

  1. Eコマース推薦システム:あるeコマース・プラットフォームでは、商品のレコメンデーション(推奨システム)にMLモデルを使用している。モデルのモニタリングは、推薦された商品のクリックスルー率(CTR)とコンバージョン率を追跡する。CTRの急激な低下(パフォーマンスの低下)や、購入される商品の種類の変化(新しいトレンドによるコンセプトのドリフト)をモニタリングが検出した場合、アラートがトリガーされる。これにより、調査が促され、より新しいインタラクションデータでモデルを再トレーニングする可能性がある。Amazon Personalizeには、レコメンデーションの効果をモニタリングする機能があります。
  2. 自律走行車の知覚: 自動運転車は、次のようなコンピュータビジョンモデルに大きく依存しています。 Ultralytics YOLOのようなコンピュータビジョンモデルに大きく依存しています。モデルモニタリングは、歩行者、自転車、他の車両などのオブジェクトの検出精度YOLO パフォーマンスメトリクス)と信頼度スコアを継続的に追跡します。また、ドリフトを検出するために、入力データの特性(画像の明るさ、天候など)を監視します。特定の条件下(大雨、低照度など)でモデルの性能が著しく低下した場合、システムはより安全な運転モードに切り替えたり、より多様なデータで訓練されたモデル更新(データ増強)の必要性を示すかもしれない。ウェイモのような企業は、知覚システムのモニタリングに多額の投資を行っている。

ツールと実装

モデルモニタリングの実装には、多くの場合、専用のツールやプラットフォームを使用する必要がある。Evidently AIや NannyMLのようなオープンソースのライブラリから、クラウドプロバイダーが提供するマネージドサービス(AWS SageMaker Model MonitorGoogle Vertex AI Model MonitoringAzure Machine Learning data drift detection)、Arize AIや WhyLabsのような専用のMLOpsプラットフォームまで、選択肢は多岐にわたる。Ultralytics HUBのようなプラットフォームは、モデルのデプロイと管理をサポートするインフラストラクチャを提供し、モニタリングソリューションと統合してMLOpsサイクルを完成させる。効果的なモデルのメンテナンス戦略は、堅牢なモニタリングに大きく依存しています。

すべて読む