了解自监督学习如何利用无标记数据进行高效训练,从而改变计算机视觉、NLP 等领域的人工智能。
自监督学习(Self-Supervised Learning,简称 SSL)是一种机器学习技术,它允许模型从大量无标签数据中学习。SSL 不依赖于人类提供的标签,而是通过创建和解决 "借口任务",从数据本身自动生成标签。这一过程迫使模型学习有意义的基本模式和数据特征,如图像中的纹理和形状或文本中的语法结构。这些学习到的特征打下了坚实的基础,使模型在微调阶段能够在下游任务中使用更少的标注数据完成出色的任务。SSL 弥补了完全监督学习与纯粹无监督学习之间的差距,前者对数据要求较高,而后者的指导性较弱。
SSL 背后的核心理念是借口任务--模型必须解决的自创问题。该任务的标签直接来自输入数据。通过解决借口任务,神经网络可以学习到有价值的表征或嵌入,从而捕捉到数据的基本特征。
计算机视觉中常见的借口任务包括
这种在无标签数据上进行的预训练,可以产生稳健的模型权重,并以此为起点,完成更多特定任务。
将 SSL 与相关的机器学习范式区分开来至关重要:
SSL 在各个领域的人工智能 (AI)能力都得到了大幅提升:
SSL 大大降低了对昂贵的标记数据集的依赖,使强大的人工智能模型的开发平民化。PyTorch和TensorFlow 等工具以及Ultralytics HUB 等平台提供了利用 SSL 技术构建和部署尖端人工智能解决方案的环境。您可以在NeurIPS和ICML 等顶级人工智能会议上找到有关 SSL 的最新研究成果。