事前学習済みモデルを使用して、時間を節約し、AIのパフォーマンスを向上させ、限られたデータで新しいタスクに取り組むために、伝達学習のパワーを解き放ちます。
転移学習は機械学習(ML)の手法の1つで、特定のタスクのために開発されたモデルを、関連する2つ目のタスクのモデルの出発点として再利用する。移転学習は、膨大なデータと計算資源を必要とするモデルをゼロから構築する代わりに、ソースタスクから学習した知識(特徴、パターン、重み)を活用してターゲットタスクの学習を改善する。このアプローチは、ターゲットタスクのラベル付きデータが限られている場合に特に有益であり、学習プロセスを大幅に加速し、多くの場合、ターゲットデータセットのみで学習した場合よりも優れたパフォーマンスをもたらす。
転移学習の核となる考え方は、画像タスクのためのImageNetや 自然言語処理(NLP)のための膨大なテキストコーパスのような、大規模で一般的なデータセットで訓練されたモデルが、他の多くの関連タスクに有用な一般的特徴を学習するというものである。例えば、コンピュータビジョン(CV)の場合、畳み込みニューラルネットワーク(CNN)の初期層は、エッジ、テクスチャ、単純な形状の検出を学習するかもしれない。
転移学習を適用する場合、通常は事前に訓練されたモデルから始める。ソースタスクとターゲットタスクの類似性や、ターゲットデータセットのサイズにもよりますが、以下のような方法があります:
転移学習は様々な領域で広く応用されている:
Ultralytics HUBのようなプラットフォームは、事前に訓練されたモデルを提供することで、転移学習の適用プロセスを簡素化する。 Ultralytics YOLOv8や YOLO11やYOLO11のような)や、ユーザー固有のデータセットで簡単にカスタム学習できるツールを提供することで、転移学習の適用プロセスを簡素化している。フレームワーク PyTorchや TensorFlowのようなフレームワークも、転移学習ワークフローを実装するための広範なサポートとチュートリアルを提供している。より深い理論的な理解のためには、伝達学習に関するスタンフォードCS231nの概要や、「A Survey on Deep Transfer Learning」のような学術的な調査のようなリソースが、貴重な洞察を提供してくれます。