自己教師あり学習が、効率的なトレーニングのためにラベルのないデータをどのように活用し、コンピュータ・ビジョンやNLPなどのAIにどのような変革をもたらすかをご覧ください。
自己教師あり学習(SSL)は、機械学習(ML)のアプローチの1つで、人間が明示的にラベルを提供することなく、データを用いてモデルを学習する。ラベル付きデータに大きく依存する教師あり学習とは異なり、SSLは入力データから直接教師信号を生成する。このため、コンピュータビジョン(CV)や自然言語処理(NLP)のように、膨大な量のラベルなしデータが利用可能でありながら、ラベル付けに費用と時間がかかることが多い分野では、SSLは特に威力を発揮する。
SSLの核となる考え方は "口実タスク "の作成である。これは実務者が設計した補助的なタスクで、モデルが意図的に隠されたり修正されたりしたデータの特性を予測するものである。プレテキストタスクを解くことで、モデルはデータの意味のある基本的なパターンや表現を学習する。
例えば、コンピュータビジョンでは、一般的なプレテキストタスクとして、モデルに画像の一部を見せ、これらの部分の相対的な位置を予測させたり、グレースケール版のみを与えられた画像の色を予測させたりすることがある。NLPでは、(BERTのようなモデルで使用される)マスクされた言語モデリングがよく使われる手法で、文中でマスクされた単語をモデルが予測する。
これらの自己生成ラベルを大規模なデータセットで学習することで、モデルは頑健な特徴表現を開発する。これらの学習された特徴(埋め込み)は、データの本質的な特徴を捉える。この最初の学習段階は、しばしば事前学習と呼ばれる。事前学習されたモデルは、微調整と呼ばれるプロセスを通じて、特定の下流タスク(物体検出、画像分類、画像セグメンテーションなど)に適応させることができる。このため、SSLは転移学習の重要な手段となる。
自己教師あり学習は、AIにおいて大きな進歩をもたらした:
SSLを関連するMLパラダイムと区別することは有益だ:
自己教師あり学習は、ラベル付けされていない豊富なデータを活用して強力な表現を構築し、コストのかかるラベル付きデータセットへの依存を大幅に削減することで、さまざまなAIアプリケーションや Ultralytics HUBのようなプラットフォームの進歩を加速させる、重要な架け橋となる。