术语表

对比学习

发现对比学习:一种自我监督的人工智能技术,在视觉、NLP 和音频任务中表现出色,具有稳健、数据高效的嵌入。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

对比学习(Contrastive Learning)是机器学习中的一种自我监督学习技术,它侧重于通过比较数据样本来学习表征,以强调它们之间的异同。它是一种强大的表征学习方法,目标是将数据编码为能捕捉语义关系的有意义嵌入。近年来,对比学习在计算机视觉、自然语言处理和音频处理等领域取得了成功,因此受到了广泛关注。

对比学习如何发挥作用

对比学习的核心是创建成对的数据点并对其进行比较。这些数据对通常分为

  • 正对:语义相似的数据点(如同一对象的不同视图)。
  • 负对:语义不同的数据点。

学习过程涉及一个对比损失函数,该函数鼓励模型最小化正对表示之间的距离(在嵌入空间中),同时最大化负对表示之间的距离。一个常用的对比损失函数是InfoNCE损失,它在 SimCLR 和 MoCo 等模型中发挥着至关重要的作用。

对比学习的主要优势

  1. 数据效率:对比学习利用未标记数据,减少了对大量标记数据集的依赖。这在医疗成像或科学研究等领域尤为有用,因为在这些领域,数据标注成本高昂或耗费时间。
  2. 改进表征:通过对比学习获得的嵌入通常能在分类或聚类等各种下游任务中很好地通用。
  3. 多功能性:这种方法可应用于各种模式,包括图像、文本、音频甚至多模式数据。

对比学习的应用

视觉人工智能和图像识别

在计算机视觉领域,对比学习被广泛用于图像分类、物体检测和图像分割等任务的预训练模型。例如

  • SimCLR(视觉表征对比学习简单框架):SimCLR 应用数据增强技术生成正对,并使用对比损失来学习视觉表征。
  • Ultralytics YOLO:Ultralytics YOLO 等模型虽然主要用于物体检测,但也能受益于预先训练的对比学习嵌入,从而提高图像识别和分割等任务的性能。

在《探索计算机视觉应用的工作原理》一书中,您将发现对比学习如何促进现代计算机视觉的发展。

自然语言处理

在 NLP 中,对比学习用于对齐句子相似性、语义搜索和文本分类等任务中的文本嵌入。OpenAI 的CLIP模型整合了对比方法来对齐图像和文本嵌入,从而实现了跨模式应用,如零拍图像分类。

音频和语音处理

对比学习也被应用于音频数据。例如,模型可以通过对比同一音频文件的不同片段(正对)和不相关的音频文件(负对)来学习稳健的音频表征。这种方法在语音识别或音乐分类等任务中非常有用。

真实案例

  1. 医疗保健:对比学习正在改变医疗领域的人工智能。例如,它通过学习 X 射线或核磁共振成像的稳健表征来帮助医疗图像分析,而不需要大量的标记数据集。这些嵌入可以帮助异常检测或疾病诊断。
  2. 自动驾驶汽车:在自动驾驶技术中,对比学习(Contrastive Learning)被用于调整传感器数据(如激光雷达和摄像头)和学习表征,以改善自动驾驶中的人工智能。这能增强物体识别和环境映射等任务。

对比学习与相关概念

  • 监督学习:与依赖标记数据的监督学习不同,对比学习使用无标记数据,侧重于通过数据点之间的关系进行学习。
  • 自我监督学习对比学习(Contrastive Learning)是自我监督学习(self-supervised learning)的一个子集,其中的模型学会预测数据中的转换或关系。
  • 嵌入:嵌入是许多机器学习技术的产物,而对比学习技术则专门优化嵌入,以保留语义关系。

工具和框架

有几种工具和框架支持对比学习:

对比学习(Contrastive Learning)通过在各种应用中实现高效和有效的表征学习,不断推动人工智能的进步。要深入了解机器学习概念,请访问Ultralytics 词汇表,探索机器学习 (ML)和相关术语。

阅读全部