术语表

LoRA(低等级适应)

了解 LoRA 如何对YOLO 等大型人工智能模型进行高效微调,从而降低成本,并以最少的资源实现边缘部署。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

LoRA(Low-Rank Adaptation)是一种高效的技术,用于调整大型预训练机器学习(ML)模型,如用于自然语言处理(NLP)计算机视觉(CV)的模型,以适应特定任务或数据集,而无需重新训练整个模型。它大大降低了与微调大规模模型相关的计算成本和内存要求,使高级人工智能更容易获得。LoRA 属于参数高效微调(PEFT)方法的范畴。

LoRA 如何工作

传统的微调包括利用新数据更新预训练模型的所有参数(或模型权重)。对于拥有数十亿个参数的模型来说,这一过程需要大量的计算资源,特别是 GPU内存和时间。LoRA 的工作原理是,调整模型所需的变化往往存在于低维空间中。

LoRA 并不修改所有原始权重,而是将其冻结,并将较小的、可训练的 "低秩 "矩阵注入模型架构的特定层,通常是在变换器模块中。在微调过程中,只有这些新添加的矩阵(适配器)会被更新。这就大大减少了可训练参数的数量,通常是数量级的减少,同时在许多情况下仍能达到与完全微调相当的性能。最初的LoRA 研究论文提供了有关该方法的更多技术细节。

相关性和益处

LoRA 的主要优势在于其效率:

  • 降低计算成本:与全面微调相比,训练所需的GPU 内存和时间大大减少。
  • 存储空间更小:无需为每个任务保存完整的微调模型,只需存储较小的 LoRA 适配器权重。这对管理多个自定义模型非常有利。
  • 更快的任务切换:只需简单地交换相应的 LoRA 适配器权重,就能快速地将基本模型调整到不同的任务。
  • 可访问性:可在消费级硬件或边缘计算设备等资源受限的环境中对大型模型进行微调。
  • 性能相当:通常能达到与完全微调模型接近的精度水平。

LoRA 的应用

LoRA 的高效性使其在各个领域都具有重要价值:

  • 定制大型语言模型(LLM):调整GPT-4等基础 LLM 或开源替代品,以完成特定任务,如生成特定风格的文本、创建特定领域的聊天机器人,或提高小众问题解答数据集的性能。例如,公司可以使用 LoRA 微调普通客户服务聊天机器人,使其理解特定行业的行话,并提供更相关的回复,而无需重新训练整个基础 LLM。Hugging Face 的 PEFT 库提供了实现 LoRA 和其他类似技术的工具。
  • 调整视觉模型:有效微调大型计算机视觉模型,包括 Ultralytics YOLO模型,用于特定对象检测图像分割任务。例如,调整在COCO等广泛数据集上预先训练的模型,以准确检测制造质量控制流程中的独特缺陷,或在野生动物保护工作中使用相机陷阱图像识别特定动物物种。
  • 个性化人工智能:根据个人偏好或数据调整模型,以最小的开销创造个性化的用户体验。
  • 医学图像分析:根据医学扫描结果对用于专业诊断任务的模型进行微调,以适应特定的成像模式或患者群体。Ultralytics HUB等平台可帮助管理使用 LoRA 等技术调整的模型,以适应各种部署方案
阅读全部