用語集

微調整

Ultralytics YOLO のような機械学習モデルを特定のタスクのために微調整します。方法、アプリケーション、ベストプラクティスをここで学びましょう!

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

ファインチューニングは、機械学習(ML)においてよく使われる手法であり、大規模なデータセットですでに学習済みのモデル(事前学習済みモデル)を、特定のタスクに関連する、より小規模で特定のデータセットでさらに学習させる。このアプローチでは、最初の訓練でモデルが学習した一般的な知識を活用することで、モデルをゼロから訓練することなく、より専門的な領域で優れた能力を発揮できるように適応させ、時間と計算資源を大幅に節約することができる。コンピュータ・ビジョン(CV)や自然言語処理(NLP)などの分野では一般的な手法だ。

微調整の仕組み

このプロセスは通常、次のような事前に訓練されたモデルを選択することから始まります。 Ultralytics YOLOようなモデルを選択することから始まる。これらのモデルは、最初のトレーニングデータから一般的な特徴を認識することをすでに学習している。微調整の間、モデルの重みは新しい、より小さなデータセットに基づいて調整される。多くの場合、ネットワークの初期層(一般的な特徴を学習する層)は「凍結」されたまま(重みは更新されない)、後の、よりタスクに特化した層が再トレーニングされる。この再トレーニングでは通常、元のトレーニングで使用された学習率よりも低い学習率を使用して、重みをより小さく調整し、新しいタスクのニュアンスに適応しながら以前に学習した知識を保持する。

微調整と関連概念

ファインチューニングを同様のMLの概念と区別することは重要だ:

  • 転移学習微調整は、より広範な転移学習のカテゴリーに含まれる特定の手法である。転移学習は、あるタスクのために開発されたモデルを、第2のタスクのモデルの出発点として再利用するあらゆる手法を包含する。ファインチューニングが事前学習済みモデルの重みを調整するのに対し、他の転移学習アプローチは、事前学習済みモデルを固定特徴抽出器としてのみ使用する場合がある。
  • ゼロからのトレーニング:これは、モデルの重みをランダムに初期化し、ターゲットとなるデータセットのみでトレーニングを行う。ファインチューニングに比べ、より多くのデータと計算能力を必要とします。また、事前にトレーニングされたモデルの一般的な知識ベースがないため、小規模なデータセットではうまく機能しないことがよくあります。モデルトレーニングのヒントについては、私たちのドキュメントをご覧ください。
  • ハイパーパラメータのチューニングこのプロセスは、学習プロセスを開始する前に、最適な構成設定(学習率、バッチサイズ、オプティマイザの選択などのハイパーパラメータ)を見つけることに重点を置く。逆に、微調整は学習プロセス自体の一部であり、新しいデータに基づいてモデルの内部パラメータ(重み)を調整する。Ultralytics Tunerのようなツールは、ハイパーパラメータの最適化を自動化する。

微調整を使う理由

微調整にはいくつかの利点がある:

  • トレーニング時間の短縮:既存の知識を活用するため、トレーニングのエポック数が少なくて済みます。
  • より少ないデータ要件:モデルがゼロからすべてを学習するわけではないため、タスクに特化した小規模なデータセットでも効果的。
  • パフォーマンスの向上:限られたデータでゼロから学習したモデルに比べ、特殊なタスクで高い精度を達成することが多い。
  • 最先端のアーキテクチャへのアクセス: Transformerや高度なCNNのような強力で複雑なモデルを、初期学習に必要な膨大なリソースを必要とせずに利用することができます。

実世界での応用

微調整はさまざまな領域で広く使われている:

  1. 特殊な物体検出:一般的な物体検出用に事前にトレーニングされたUltralytics YOLO モデルを、特定の工業部品のカスタムデータセットを使って微調整し、製造業AI用の高性能欠陥検出システムを作成することができます。同様に、脳腫瘍のような特定の状態を検出するために、医療画像解析用に微調整することもできます。Ultralytics HUBは、データセットを管理し、このカスタムトレーニングプロセスを合理化するプラットフォームを提供します。
  2. カスタム言語タスク: GPT-3のような大規模な言語モデルは、OpenAIによって多様なインターネットテキストで事前に訓練されているため、法律文書のデータセットで微調整を行い、法律文書の要約や、専門的なチャットボットの応答のための顧客サービスのトランスクリプトのパフォーマンスを向上させることができます。別の例としては、Google AI Blogなどのリソースで詳述されているように、製品レビューやソーシャルメディア投稿の特定のセンチメント分析タスクのためにBERTモデルを微調整することが挙げられます。

Ultralytics YOLO モデルの微調整

Ultralytics 、YOLO モデルの微調整を強力にサポートします。ユーザーは、(例えばImageNetやCOCOで訓練されたモデルから)事前に訓練された重みを簡単にロードすることができ、検出、セグメンテーション、または分類のようなタスクのために、独自のデータセットで訓練を続けることができます。Ultralytics ドキュメントには学習プロセスに関する詳細なガイドが記載されている。 YOLO11のような最先端のモデルを、それぞれのコンピュータビジョンの課題に適応させることができます。この適応性は、農業AIから ロボット工学まで、多様なアプリケーションで最適なパフォーマンスを達成する鍵となります。転移学習技術に関するさらなる情報は、Courseraのような教育プラットフォームで見つけることができる。

すべて読む