Ultralytics YOLO のような機械学習モデルを特定のタスクのために微調整します。方法、アプリケーション、ベストプラクティスをここで学びましょう!
ファインチューニングは、機械学習(ML)においてよく使われる手法であり、大規模なデータセットですでに学習済みのモデル(事前学習済みモデル)を、特定のタスクに関連する、より小規模で特定のデータセットでさらに学習させる。このアプローチでは、最初の訓練でモデルが学習した一般的な知識を活用することで、モデルをゼロから訓練することなく、より専門的な領域で優れた能力を発揮できるように適応させ、時間と計算資源を大幅に節約することができる。コンピュータ・ビジョン(CV)や自然言語処理(NLP)などの分野では一般的な手法だ。
このプロセスは通常、次のような事前に訓練されたモデルを選択することから始まります。 Ultralytics YOLOのようなモデルを選択することから始まる。これらのモデルは、最初のトレーニングデータから一般的な特徴を認識することをすでに学習している。微調整の間、モデルの重みは新しい、より小さなデータセットに基づいて調整される。多くの場合、ネットワークの初期層(一般的な特徴を学習する層)は「凍結」されたまま(重みは更新されない)、後の、よりタスクに特化した層が再トレーニングされる。この再トレーニングでは通常、元のトレーニングで使用された学習率よりも低い学習率を使用して、重みをより小さく調整し、新しいタスクのニュアンスに適応しながら以前に学習した知識を保持する。
ファインチューニングを同様のMLの概念と区別することは重要だ:
微調整にはいくつかの利点がある:
微調整はさまざまな領域で広く使われている:
Ultralytics 、YOLO モデルの微調整を強力にサポートします。ユーザーは、(例えばImageNetやCOCOで訓練されたモデルから)事前に訓練された重みを簡単にロードすることができ、検出、セグメンテーション、または分類のようなタスクのために、独自のデータセットで訓練を続けることができます。Ultralytics ドキュメントには、学習プロセスに関する詳細なガイドが記載されている。 YOLO11のような最先端のモデルを、それぞれのコンピュータビジョンの課題に適応させることができます。この適応性は、農業AIから ロボット工学まで、多様なアプリケーションで最適なパフォーマンスを達成する鍵となります。転移学習技術に関するさらなる情報は、Courseraのような教育プラットフォームで見つけることができる。