术语表

少量学习

了解 "少量学习 "如何使人工智能能够利用最少的数据进行调整,从而改变医疗诊断和野生动物保护等领域。

少量学习(Few-Shot Learning,FSL)是机器学习(Machine Learning,ML)的一个子领域,专注于设计能够从每类极少量训练示例(通常只有几个)中泛化的模型。这与传统的深度学习(DL)方法形成了鲜明的对比,后者通常需要大量的标注训练数据。其核心思想受到人类学习的启发,在人类学习中,我们通常只需看到一两个实例就能识别新概念。在数据收集昂贵、耗时或固有限制的领域,FSL 尤为重要,它使人工智能(AI)更具适应性和数据效率。

快速学习如何运作

快速学习技术旨在利用先前的知识,从有限的数据中快速学习新概念。常见的策略包括

  • 元学习: 元学习通常被描述为 "学会学习",包括在元训练阶段对模型进行各种学习任务的训练。这样,模型就能学习到高效的学习算法或初始参数,从而在实例较少的情况下快速适应新任务。为此,已经开发了几种元学习算法
  • 迁移学习:FSL 通常利用迁移学习,从在大型数据集(如ImageNetCOCO)上预先训练好的模型开始。这种预训练模型已经了解大型数据集的一般特征,然后利用少量可用示例针对特定目标任务进行微调。这种方法充分利用了模型权重中蕴含的一般知识。
  • 数据扩充:使用数据扩增技术生成为数不多的可用训练样本的变体,有助于扩展有限的数据集,但在数据量极少的情况下,其效果可能会有所不同。可能需要高级扩增策略

这些方法使神经网络 (NN)即使在特定任务数据极少的情况下也能实现合理的性能。

快速学习与相关概念的比较

必须将 FSL 与类似的学习范式区分开来:

  • 零点学习(Zero-Shot Learning,ZSL)ZSL 的目的是对训练过程中从未见过的类别中的实例进行分类。这通常是通过使用辅助信息来实现的,例如未见类别的文字描述或属性,以弥补已见数据与未见数据之间的差距。与此相反,FSL 要求每个新类至少有几个标注示例。对 ZSL、FSL 和迁移学习的概述可以提供进一步的背景信息。
  • 单次学习(OSL)OSL 是 FSL 的一个极端变体,在这种情况下,模型必须仅从一个标注示例中学习识别一个新类别。它与 FSL 的目标相同,但在运行时受到更严格的数据限制。
  • 迁移学习虽然 FSL 经常使用迁移学习作为一种技术,但这两个术语并不能互换。迁移学习是一个更广泛的概念,涉及利用源任务的知识来提高目标任务的性能。FSL 专门解决了在目标任务的标注数据极其有限的情况下如何有效学习的难题。

少拍学习的应用

在无法或不可能获得大型数据集的情况下,FSL 可使人工智能应用成为可能:

挑战与未来方向

尽管 FSL 前景广阔,但它也面临着挑战,包括模型对所提供的少数特定示例的敏感性,以及确保在这些示例之外的强大泛化能力。利用如此有限的数据克服过度拟合是一个重大障碍。目前的研究重点是开发更强大的元学习算法,更好地利用无监督学习自监督学习进行预训练,以及创建理论框架来理解低数据环境下的泛化。谷歌人工智能(Google AI)和元人工智能(Meta AI)等机构积极推动 FSL 技术的发展,旨在使人工智能系统更加灵活,对数据的需求更少。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板