自己教師あり学習が、効率的なトレーニングのためにラベルのないデータをどのように活用し、コンピュータ・ビジョンやNLPなどのAIにどのような変革をもたらすかをご覧ください。
自己教師あり学習(SSL)は、ラベル付けされていない膨大なデータからモデルを学習させる機械学習(ML)のアプローチである。綿密にラベル付けされたデータに大きく依存する教師あり学習とは異なり、SSLは独創的な方法で入力データそのものから直接教師信号を作成する。このため、コンピュータ・ビジョン(CV)や自然言語処理(NLP)のような、ラベル付けされていないデータが大量に存在するが、手作業によるラベル付け(データ注釈付け)にかかるコストや労力が法外になるような分野では、SSLは非常に有用である。
SSLの核となるメカニズムには、"口実タスク "を設計することが含まれる。これは、モデルが意図的に隠されたり変更されたりしたデータの特定の特性を予測しなければならない、補助的で自己生成的なタスクである。このプレテキスト・タスクを解くことで、モデルは、人間が提供するラベルなしで、データの意味のある根本的な構造と表現(埋め込み)を学習することになる。この最初の学習段階は、一般的に事前学習と呼ばれる。
例えば、コンピュータ・ビジョンでは、口実のタスクが含まれるかもしれない:
自然言語処理では、よく知られた前文タスクとして、BERTのようなモデルで有名なマスク言語モデリングがある。このモデルでは、文の中でランダムにマスクされた(隠された)単語を予測することを学習する。
ラベル付けされていない大規模なデータセットで事前学習した後、モデルは豊富な特徴表現をキャプチャする。この事前訓練されたモデルは、微調整と呼ばれるプロセスを通じて、物体検出、画像分類、感情分析など、特定の下流タスクに適応させることができる。ファインチューニングに必要なラベル付きデータ量は、モデルをゼロからトレーニングする場合に比べてはるかに少ないため、SSLは効果的な転移学習のための重要な手段となる。
SSLを関連するMLパラダイムと区別することは極めて重要だ:
SSLは人工知能(AI)機能を大幅に進化させている:
SSLは高価なラベル付きデータセットへの依存を大幅に減らし、強力なAIモデルの開発を民主化する。以下のようなツール PyTorchや TensorFlowのようなツールや、Ultralytics HUBのようなプラットフォームは、最先端のAIソリューションを構築・展開するためにSSL技術を活用する環境を提供します。