术语表

自我监督学习

了解自监督学习如何利用无标记数据进行高效训练,从而改变计算机视觉、NLP 等领域的人工智能。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

自监督学习是一种利用未标记数据来训练模型的机器学习方法。与需要标记数据集的监督学习不同,自监督学习可以从未标明数据本身的固有结构中创建自己的标签。这种方法在计算机视觉(CV)自然语言处理(NLP)等领域尤为重要,因为在这些领域中,大量未标注数据唾手可得,但人工标注既费钱又费时。

自我监督学习如何运作

自监督学习的核心思想是设计一个 "前置任务",让模型从无标记数据中学习有用的表征。这个前置任务的制定方式是,解决这个任务需要理解数据中的有意义模式。例如,在图像处理中,前置任务可以是预测应用于图像补丁的旋转,或对灰度图像进行着色。在语言处理中,常见的前置任务是屏蔽语言建模,即模型预测句子中的屏蔽词。

一旦模型利用大量无标记数据完成了借口任务的训练,它就能学习到数据的一般特征和表征。然后,这些学习到的表征就可以转移到下游任务中并进行微调,如物体检测图像分类图像分割等,而所需的标记数据往往比纯监督训练少得多。这种迁移学习能力是自我监督学习的一个关键优势。

自我监督学习的应用

自监督学习已在多个领域得到应用,尤其是在标记数据稀缺或获取成本高昂的情况下:

  • 计算机视觉:在医学图像分析中,自监督学习可以在大量无标记医学图像(如 X 光片或核磁共振扫描)数据集上预先训练模型。然后,可以使用有限的标记数据对这些预训练模型进行微调,以完成特定的诊断任务,从而提高医学图像解读的准确性和效率。例如,像 Ultralytics YOLOv8等模型可以从自我监督预训练中获益,从而提高其检测医学图像异常的性能。
  • 自然语言处理:像GPT-4这样的大型语言模型 (LLM) 通常是在海量文本数据上使用自监督学习技术进行预训练的。这种预训练使它们能够学习一般的语言理解和生成能力,然后针对特定的 NLP 任务(如文本摘要、翻译或情感分析)进行微调。及时调整等技术可进一步利用这些预训练模型,从而高效地适应新任务。

自我监督学习与类似概念的比较

将自我监督学习与其他相关的机器学习范式区分开来非常重要:

  • 无监督学习:虽然两者都使用无标记数据,但无监督学习旨在发现数据中的固有结构或模式,而不考虑任何特定任务(如聚类、降维)。另一方面,自监督学习则制定了一个前置任务,以学习对下游任务有用的表征。
  • 半监督学习半监督学习结合使用标记数据和非标记数据,但仍依赖一定量的标记数据进行训练。自监督学习主要侧重于从未标明的数据中学习,然后使用少量标明的数据进行微调。

自监督学习是机器学习领域的一大进步,它能有效利用大量未标记数据,减少对昂贵的标记数据集的依赖。随着 Ultralytics YOLO11等模型的不断发展,自监督技术可能会在提高其性能和适用于各种视觉人工智能应用方面发挥越来越重要的作用。

阅读全部