Yolo 深圳
深セン
今すぐ参加
用語集

自己教師あり学習

自己教師あり学習が手動ラベリングの必要性を排除する仕組みを探求しましょう。Ultralytics 強化する生成型および対照型SSL手法について学びます。

自己教師あり学習(SSL)は、システムが外部の人間が提供するラベルに依存するのではなく、データ自体から独自の教師信号を生成することでデータを理解することを学ぶ機械学習のパラダイムである。従来の 教師あり学習では、モデルは「猫」や「犬」とラベル付けされた画像など、膨大な量の手動でアノテーションされたデータを必要とします。これは作成に費用と時間がかかる場合があります。SSLはこのボトルネックを回避し、モデルが入力データの隠れた部分や欠落部分を予測しなければならない「プレテキストタスク」を作成します。これにより、モデルは自らに、物体検出のような複雑なタスクに必要な基盤となる構造や特徴を効果的に教えます。 物体検出 や 分類といった複雑なタスクに必要な基盤構造や特徴を自ら学習する。

自己教師付き学習の核心的メカニズム

SSLの基本的な考え方は、データの一部をマスクまたは隠蔽し、 ニューラルネットワーク(NN)に に そのデータを再構築させたり、同一データの異なるビュー間の関係を予測させたりすることである。このプロセスにより、 汎用性の高い豊かな表現が生成され、後で特定のダウンストリームアプリケーション向けに微調整が可能となる。

SSLには主に2つのアプローチがあります:

  • 生成手法:モデルは空白を埋めるためにピクセルや単語を生成することを学習する。自然言語処理(NLP)における古典的な例 自然言語処理(NLP)における典型例は、文中の次の単語を予測することである。 は文中の次の単語を予測することである。コンピュータビジョンでは、 マスク付きオートエンコーダ(MAE) が画像のランダムな領域を覆い隠し、欠落したピクセルを再構築するタスクをモデルに課すことで、視覚的文脈を「理解」させることを強制する。
  • 対照学習:この手法は、類似したデータポイントと非類似なデータポイントを区別することをモデルに教えます。 データ拡張 技術(クロッピング、カラージッターリング、回転など)を画像に適用することで、モデルはこれらの変更されたバージョンが 同じ物体を表す(正例ペア)ことを学習し、他の画像は異なる物体として扱う(負例ペア)。 人気のあるフレームワークである SimCLR はこの原理に大きく依存している。

実際のアプリケーション

自己教師付き学習は、強力な基盤モデルを構築するための礎となっている。 基盤モデル構築の礎となっている を構築する基盤となった。大量の未ラベルデータを活用する能力により、高い拡張性を実現している。

  • 医療画像診断:専門家によるラベル付け済みの医療画像を取得することは困難かつ高コストである。機械学習により、モデルは数千枚の未ラベル化X線写真やMRI画像で事前学習を行い、一般的な解剖学的特徴を学習できる。この事前学習済みモデルは、少数のラベル付き例を用いて微調整することで、腫瘍検出において高い精度を達成できる。 腫瘍検出 や疾患診断において高い精度を達成できる。
  • 自動運転:自動運転車は毎日テラバイト規模の動画データを生成する。SSLはこれらのシステムが、フレーム単位の注釈なしに生動画から時間的ダイナミクスと空間的理解を学習することを可能にする。これにより車線検出の精度向上に寄与する。 車線検出 や障害物回避の精度向上に寄与します。

SSLと関連用語の区別

SSLと 教師なし学習。両手法ともラベル付けされていないデータを利用するものの、非監督学習は通常、特定の予測タスクなしに隠れたパターンや グループ化(クラスタリング)を発見することに焦点を当てる。一方、SSLは学習プロセスを、データ構造自体から自動的にラベルが生成される 監督タスクとして位置付ける。さらに、 半教師あり学習 は少量のラベル付きデータと大量のラベルなしデータを組み合わせるのに対し、純粋なSSLは ファインチューニングが行われる前に、ラベルなしデータセットから完全に独自のラベルを生成する。

Ultralyticsにおける事前学習済み重みの活用

Ultralytics では、 YOLO26 は、大規模データセット(例: ImageNet)での事前学習段階で、 SSL(Supervised Self-Learning)と同様の原理を組み込んだ高度な トレーニング戦略によって 大幅な効果を得ています。 ImageNetCOCOなどの大規模データセットに対する事前学習段階で、SSLと同様の原理を組み込んだ高度なトレーニング戦略から大きな恩恵を受ける。これにより、ユーザーが特定のタスクにモデルを適用する際、特徴抽出器が既に頑健であることが保証される。

ユーザーはこれらの強力な事前学習済み表現を活用し、独自のカスタムデータセット上でモデルを微調整できます。 Ultralytics を使用してモデルを微調整できます。

事前学習済みYOLO26モデルを読み込み、初期の大規模学習で習得した特徴を活用しながら新規データセットで微調整を開始する簡潔な例を以下に示す:

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (weights learned from large-scale data)
model = YOLO("yolo26n.pt")

# Fine-tune the model on a specific dataset (e.g., COCO8)
# This leverages the robust feature representations learned during pre-training
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)

SSLの未来

主要研究所の研究者たちのように Meta AIGoogle これらの技術を磨き続ける中、 SSLは生成AIの限界を押し広げている。 生成AI とコンピュータービジョンにおける可能性の限界を押し広げている。 ラベル付きデータへの依存度を低減することで、SSLは高性能AIへのアクセスを民主化し、小規模なチームでも 野生生物保護のようなニッチな用途向けに洗練されたモデルを構築できるようにしている。 野生生物保護産業検査といったニッチな用途向けの高度なモデルを構築することを可能にしています。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加