针对特定任务微调机器学习模型,如Ultralytics YOLO 。在此了解方法、应用和最佳实践!
微调是机器学习(ML)中的一种流行技术,它是指将已在大型数据集上训练过的模型(预训练模型),在与特定任务相关的较小的特定数据集上进一步训练。这种方法利用了模型在初始训练中学习到的一般知识,使其在更专业的领域中表现出色,而无需从头开始训练模型。这可以节省大量时间和计算资源,因此在计算机视觉(CV)和自然语言处理(NLP)等领域非常普遍。像 PyTorch和 TensorFlow等框架提供了实现微调所需的工具。
这一过程通常从选择一个预先训练好的模型开始,例如 Ultralytics YOLO模型。这些模型通常是用于视觉的卷积神经网络(CNN)或用于 NLP 的Transformers,它们已经学会了从初始训练数据中识别一般特征。在微调过程中,模型权重--在训练过程中学到的参数--会根据新的、更小的数据集进行调整。通常情况下,网络的初始层(学习边缘或纹理等一般特征)会被 "冻结"(其权重不会更新),而后面的、针对特定任务的层会被重新训练。这种重新训练通常涉及使用比原始训练中更低的学习率,对权重进行较小的调整,从而在适应新任务细微差别的同时,保留之前学习的知识。您可以在fast.ai 课程等资源中找到更多有关机制的详细信息。
微调具有几个关键优势:
探索更多优化流程的模型训练技巧。
必须将微调与类似的 ML 概念区分开来:
微调技术被广泛应用于各个领域:
在计算机视觉领域探索更多应用。
Ultralytics 为微调YOLO 模型提供了强大的支持。用户可以轻松加载预先训练好的权重(例如在 COCO 上训练好的模型),并在自己的自定义数据集上继续训练,以完成检测、分割或分类等任务。Ultralytics 文档提供了有关训练过程的详细指导,使用户能够调整最先进的模型,如 YOLO11等最先进的模型,以应对特定的计算机视觉挑战。Ultralytics HUB等平台进一步简化了定制训练过程。这种适应性是在从农业人工智能到机器人等各种应用中实现最佳性能的关键。关于迁移学习技术的更多信息,可以在Coursera 的深度学习专业等教育平台以及Papers with Code或Distill.pub等网站上找到,以获得研究见解。