事前学習済みモデルを使用して、時間を節約し、AIのパフォーマンスを向上させ、限られたデータで新しいタスクに取り組むために、伝達学習のパワーを解き放ちます。
転移学習は機械学習(ML)の手法の1つで、1つのタスクで開発されたモデルを、関連する2つ目のタスクのモデルの出発点として再利用する。ゼロからモデルを構築する代わりに、転移学習はソースタスクから学習された知識(特徴、重み)を活用し、ターゲットタスクに必要な学習時間、データ要件、計算リソースを大幅に削減する。このアプローチは、対象タスクのラベル付きデータが限られている場合に特に有益である。
このプロセスは通常、画像タスクのためのImageNetや 自然言語処理(NLP)のための大規模なテキストコーパスのような、大規模で一般的なデータセットで事前に訓練されたモデルから始まる。この事前学習により、モデル(多くの場合、畳み込みニューラルネットワーク(CNN)やトランスフォーマーのようなディープラーニング(DL)モデル)は、一般的な特徴(画像のエッジ、テクスチャ、パターン、テキストの文法や意味など)を学習することができる。
新しいターゲットタスクに対しては、この事前に訓練されたモデルが適応される。一般的な戦略には次のようなものがある:
トランスファー学習を採用することには、いくつかの重要な利点がある:
転移学習は様々な領域で広く応用されている:
Ultralytics HUBのようなプラットフォームは、事前に訓練されたモデルを提供することで、転移学習の適用プロセスを簡素化する(YOLOv8やYOLOv11)や、ユーザー固有のデータセットで簡単にカスタムトレーニングを行うためのツールを提供することで、転移学習の適用プロセスを簡素化している。フレームワーク PyTorchや TensorFlowのようなフレームワークも、転移学習のための広範なサポートとチュートリアルを提供している。より深く掘り下げるには、スタンフォード大学のCS231nの概要や、「A Survey on Deep Transfer Learning」のような学術調査などのリソースを調べてみてください。