了解自监督学习如何利用无标记数据进行高效训练,从而改变计算机视觉、NLP 等领域的人工智能。
自监督学习是一种利用未标记数据来训练模型的机器学习方法。与需要标记数据集的监督学习不同,自监督学习可以从未标明数据本身的固有结构中创建自己的标签。这种方法在计算机视觉(CV)和自然语言处理(NLP)等领域尤为重要,因为在这些领域中,大量未标注数据唾手可得,但人工标注既费钱又费时。
自监督学习的核心思想是设计一个 "前置任务",让模型从无标记数据中学习有用的表征。这个前置任务的制定方式是,解决这个任务需要理解数据中的有意义模式。例如,在图像处理中,前置任务可以是预测应用于图像补丁的旋转,或对灰度图像进行着色。在语言处理中,常见的前置任务是屏蔽语言建模,即模型预测句子中的屏蔽词。
一旦模型利用大量无标记数据完成了借口任务的训练,它就能学习到数据的一般特征和表征。然后,这些学习到的表征就可以转移到下游任务中并进行微调,如物体检测、图像分类或图像分割等,而所需的标记数据往往比纯监督训练少得多。这种迁移学习能力是自我监督学习的一个关键优势。
自监督学习已在多个领域得到应用,尤其是在标记数据稀缺或获取成本高昂的情况下:
将自我监督学习与其他相关的机器学习范式区分开来非常重要:
自监督学习是机器学习领域的一大进步,它能有效利用大量未标记数据,减少对昂贵的标记数据集的依赖。随着 Ultralytics YOLO11等模型的不断发展,自监督技术可能会在提高其性能和适用于各种视觉人工智能应用方面发挥越来越重要的作用。