用語集

トランスファー・ラーニング

事前学習済みモデルを使用して、時間を節約し、AIのパフォーマンスを向上させ、限られたデータで新しいタスクに取り組むために、伝達学習のパワーを解き放ちます。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

転移学習は機械学習(ML)の手法の1つで、1つのタスクで開発されたモデルを、関連する2つ目のタスクのモデルの出発点として再利用する。ゼロからモデルを構築する代わりに、転移学習はソースタスクから学習された知識(特徴、重み)を活用し、ターゲットタスクに必要な学習時間、データ要件、計算リソースを大幅に削減する。このアプローチは、対象タスクのラベル付きデータが限られている場合に特に有益である。

トランスファー学習の仕組み

このプロセスは通常、画像タスクのためのImageNetや 自然言語処理(NLP)のための大規模なテキストコーパスのような、大規模で一般的なデータセットで事前に訓練されたモデルから始まる。この事前学習により、モデル(多くの場合、畳み込みニューラルネットワーク(CNN)やトランスフォーマーのようなディープラーニング(DL)モデル)は、一般的な特徴(画像のエッジ、テクスチャ、パターン、テキストの文法や意味など)を学習することができる。

新しいターゲットタスクに対しては、この事前に訓練されたモデルが適応される。一般的な戦略には次のようなものがある:

  1. 事前学習済みモデルを特徴抽出器として使う:事前学習済みモデルの初期層は凍結され(重みは更新されない)、最終的な分類器またはタスク固有層のみが新しいデータセットで学習される。
  2. 微調整:これは、学習済みのレイヤーの一部またはすべてを凍結解除し、新しいデータセット上で学習プロセス(バックプロパゲーション)を継続することを含む。ファインチューニングを行うことで、モデルは一般的な知識を対象タスクの特定のニュアンスに特化させることができる。

トランスファー学習の利点

トランスファー学習を採用することには、いくつかの重要な利点がある:

  • データ量の削減:少ないデータセットでも高いパフォーマンスを実現。
  • 開発の迅速化:モデルのトレーニング時間を大幅に短縮
  • パフォーマンスの向上:特に複雑なタスクにおいて、ゼロからトレーニングするよりも高い精度と優れた汎化につながることが多い。
  • 資源効率:計算コストの節約 (GPU時間、エネルギー)を節約します。

トランスファー・ラーニングと関連概念

  • 微調整:前述したように、微調整は転移学習で使われる特殊な手法であり、事前に訓練された重みを新しいタスクの訓練中に調整する。転移学習は、知識を活用するという広い概念であり、微調整を行わずに、事前に訓練されたモデルを固定的な特徴抽出器として使用することも含まれる。
  • ゼロショット学習:新しいラベル付きデータを使ってモデルを新しいタスクに適応させる転移学習とは異なり、ゼロショット学習は、補助的な情報や共有された属性空間を頼りに、モデルが学習中に一度も見たことのないクラスでタスク(分類など)を実行することを目的としている。
  • ゼロからのトレーニング:これは、モデルの重みをランダムに初期化し、ターゲットデータセットのみで学習する従来のアプローチであり、より多くのデータと時間を必要とする。

実世界での応用

転移学習は様々な領域で広く応用されている:

  1. コンピュータビジョン: COCOのような大規模なデータセットで事前に訓練されたUltralytics YOLOようなモデルは、特殊な物体検出画像分割画像分類のタスクに頻繁に適応されます。例えば、日常的な物体で事前に訓練されたモデルは、異常(腫瘍検出)を検出するための医療画像解析や、特定の作物や害虫を識別するための農業AIなどの特定のアプリケーション用に微調整することができます。レイヤーを凍結させることでYOLOv5 伝達学習を適用する方法を学ぶことができます。
  2. 自然言語処理(NLP): BERTや GPTのような大規模言語モデル(LLM)は、膨大なテキストデータセットで事前にトレーニングされています。これらは、センチメント分析名前付きエンティティ認識(NER)、または特殊なチャットボットの構築など、特定のNLPタスク用に微調整できる強力なベースモデルとして機能します。Hugging Face Transformersのようなライブラリは、このプロセスを非常に容易にします。

Ultralytics HUBのようなプラットフォームは、事前に訓練されたモデルを提供することで、転移学習の適用プロセスを簡素化する(YOLOv8YOLOv11)や、ユーザー固有のデータセットで簡単にカスタムトレーニングを行うためのツールを提供することで、転移学習の適用プロセスを簡素化している。フレームワーク PyTorchTensorFlowのようなフレームワークも、転移学習のための広範なサポートとチュートリアルを提供している。より深く掘り下げるには、スタンフォード大学のCS231nの概要や「A Survey on Deep Transfer Learning」のような学術調査などのリソースを調べてみてください。

すべて読む