释放迁移学习的威力,节省时间、提高人工智能性能,并使用预训练模型利用有限的数据处理新任务。
迁移学习是一种机器学习(ML)技术,它将为一项任务开发的模型作为第二个相关任务模型的起点重新使用。迁移学习不需要从头开始建立模型,而是利用从源任务中学到的知识(特征、权重),从而大大减少目标任务所需的训练时间、数据要求和计算资源。当目标任务的标注数据有限时,这种方法尤其有益。
这一过程通常从在大型通用数据集上预训练模型开始,例如用于图像任务的ImageNet或用于自然语言处理 (NLP) 的大型文本语料库。这种预训练允许模型(通常是深度学习(DL )模型,如卷积神经网络(CNN)或变换器)学习图像中的边缘、纹理和模式等一般特征,或文本中的语法和语义。
对于新的目标任务,这个预先训练好的模型会进行调整。常见的策略包括
采用迁移学习有几个主要优势:
迁移学习被广泛应用于各个领域:
Ultralytics HUB等平台通过提供预先训练好的模型,简化了迁移学习的应用过程。YOLOv8和YOLOv11),并提供在用户特定数据集上轻松进行自定义训练的工具,从而简化了迁移学习的应用过程。框架,如 PyTorch和 TensorFlow等框架也为迁移学习提供了广泛的支持和教程。如需深入了解,请浏览斯坦福 CS231n 概述等资源或"深度迁移学习调查 "等学术调查。