少量学习(few-shot learning)是机器学习的一个子领域,它能让模型在训练数据非常有限的情况下泛化并适应新任务。传统的机器学习方法需要大量的数据集才能实现高性能,与之不同的是,少次元学习的目的是仅从少数示例中学习,通常每个类只有一两个示例。在数据收集成本高、耗时长或不切实际的情况下,这种能力至关重要。
少量学习利用从相关任务中获得的先前知识,以最少的数据处理新任务。这通常是通过迁移学习、元学习和使用预训练模型等技术实现的。像基于变压器架构或卷积神经网络(CNN)的预训练模型,可以通过在小数据集上进行微调来快速适应新任务。
例如,元学习方法(如 "学会学习")是根据任务分布而非单一任务来训练模型。这样,模型就能在推理过程中快速适应新任务。
快速学习在各行各业都具有变革潜力。以下是一些真实案例:
医疗诊断:少量学习可用于罕见疾病检测,在这种情况下,收集大量数据集具有挑战性。例如,可在少量医学图像上训练模型,以识别罕见肿瘤。进一步了解人工智能在医疗保健领域的应用。
自然语言处理(NLP):少量学习为情感分析和文本分类等应用提供了动力,因为在这些应用中,标记数据可能很少。GPT-4等技术利用 "少量提示",以最少的示例生成符合上下文的回复。
零售和库存管理:只需几张标注过的图像,物体识别模型就能识别货架上的新产品,从而简化人工智能驱动的零售业的运营。
机器人与自动化:机器人可以通过有限的示例适应新的环境和任务,从而提高制造业等动态行业的效率。探索制造业中的人工智能解决方案。
尽管有其优势,少枪学习也面临着挑战:
随着元学习(meta-learning)和生成模型(generative models)等领域的进步,快速学习(few-shot learning)成为一个快速发展的领域。像 Ultralytics YOLO等工具使用户能够在定制应用中利用预训练模型,从而减少了对大量标注数据集的需求。Ultralytics HUB 等平台进一步简化了为少量学习场景部署和微调模型的过程。
通过应对挑战并与前沿技术相结合,少数几次学习将继续推动人工智能在使用最少数据的情况下取得更大成就。