术语表

参数效率微调(PEFT)

探索参数高效微调(PEFT),以最少的资源调整大型人工智能模型。节约成本、防止过度拟合并优化部署!

参数高效微调(PEFT)是机器学习中使用的一套技术,可使预先训练好的大型模型适应新的特定任务,而无需重新训练整个模型。随着自然语言处理(NLP)计算机视觉(CV)等领域的基础模型增加到数十亿个参数,全面微调的计算成本变得非常昂贵,而且每个新任务都需要大量数据存储。PEFT 通过冻结绝大多数预训练模型的权重,只训练少量附加参数或现有参数,解决了这一问题。这种方法大大降低了计算和存储成本,降低了灾难性遗忘(即模型遗忘其原有功能)的风险,并使得为许多不同应用定制一个大型模型变得可行。

PEFT 如何工作?

PEFT 背后的核心原理是对预先训练好的模型进行有针对性的最小修改。PEFT 方法不更新每个参数,而是在训练过程中引入一小部分可训练参数,或从现有参数中选择一小部分进行更新。这是一种优化效率的迁移学习形式。目前有几种流行的 PEFT 方法,每种方法都有不同的策略:

  • LoRA(低秩适应)这种技术将小的、可训练的低秩矩阵注入预训练模型的层中,通常是在注意力机制中。这些 "适配器 "矩阵比原始权重矩阵小得多,因此训练速度快、效率高。LoRA原始研究论文提供了更多技术细节。
  • 提示调整这种方法并不修改模型的架构,而是完全冻结模型,并学习一组 "软提示 "或可训练的嵌入向量。这些向量被添加到输入序列中,以指导模型针对特定任务的输出,详情请参见其基础论文
  • 适配器调整:这种方法是在预训练模型的层之间插入小型全连接神经网络模块,即 "适配器"。只对这些新适配器的参数进行训练。

这些方法和其他方法可通过拥抱脸 PEFT 库等框架广泛获取,从而简化了实施过程。

PEFT 与相关概念

必须将 PEFT 与其他模型适应战略区分开来:

  • 完全微调:与 PEFT 相反,完全微调会更新预训练模型的所有权重。这需要大量资源,每个微调模型版本都需要强大的GPU和大量存储空间。
  • 提示工程这种技术包括手动设计有效的文本提示,以指导模型的行为。它不涉及任何训练或参数更新;纯粹是对输入进行精心设计,以便从冻结的模型中获得所需的输出。
  • 知识蒸馏这包括训练一个较小的 "学生 "模型来模仿一个较大的、预先训练好的 "教师 "模型的行为。虽然可以创建一个较小的模型,但这一过程本身仍然需要大量计算。

实际应用

PEFT 可使大型模型在各个领域得到实际应用:

从本质上讲,"参数高效微调 "技术使最先进的人工智能模型更具通用性和成本效益,从而使各种特定应用获得强大的人工智能能力

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板