术语表

变压器

通过Ultralytics 探索 Transformer 模型对人工智能的影响。了解它们的架构、关键组件以及在 NLP 和视觉中的应用。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

Transformer 模型已成为人工智能领域的基石,尤其是在自然语言处理(NLP)以及最近的计算机视觉任务中。Transformer 架构于 2017 年由 Vaswani 等人在论文《注意力就是你所需要的一切》中首次提出,它利用自我注意力机制从根本上改变了机器处理和理解语言的方式。

了解变压器

与递归神经网络(RNN)和卷积神经网络(CNN)等以前的模型相比,变换器旨在以更大的灵活性处理连续数据。与顺序处理数据的 RNN 不同,Transformers 允许更高的并行化,从而大大缩短了训练时间,提高了在大型数据集上的性能。

Transformer 模型的核心是自我关注机制。这使得该模型能够权衡句子中不同单词的重要性,提供上下文感知的语言理解和生成。有关自我注意的更多信息,请参阅自我注意词汇表页面

主要组成部分

  1. 编码器-解码器结构:转换器采用编码器-解码器结构,其中编码器处理输入文本,解码器生成输出。编码器和解码器各由多层组成,其中包含一个自我注意机制和一个前馈神经网络。

  2. 位置编码由于变换器本身并不理解序列的顺序,因此在输入嵌入中添加了位置编码,以帮助编码单词在序列中的位置。

  3. 注意力机制:转换器的核心是注意力机制,它为输入序列的每个部分分配不同的重要程度,使其能够在生成输出时专注于相关部分。

实际应用

自然语言处理

变形金刚推动了 NLP 领域的重大进展。基于 Transformer 架构的模型(如GPT-3和 BERT)在文本生成、情感分析和机器翻译等任务中树立了新的标杆。这些模型通过在细微层面上理解上下文,比其前辈更好地处理任务。

  • BERT通过其双向注意机制,可完成需要同时理解单词左右上下文的任务。

计算机视觉

变形器最初是为 NLP 设计的,但现在越来越多地应用于计算机视觉任务。像 ViT(Vision Transformer)这样的模型利用变换器在图像分类、分割等方面取得了最先进的成果。深入了解变形金刚在视觉模型中的作用,了解它们对计算机视觉的影响。

对于那些感兴趣的人,Ultralytics HUB 提供了将 Transformer 模型集成到一系列项目中的工具,以提高性能和可扩展性。了解有关通过Ultralytics HUB 在实际应用中部署模型的更多信息。

与相关模型的区别

  • RNN 和 LSTM:与 RNN 和 LSTM 不同,Transformers 可以并行处理序列,从而加快训练速度,提高捕捉长距离依赖关系的效率。

  • CNNsCNN 传统上用于处理图像数据,而 Transformer 则能捕捉数据中的上下文关系,不受空间层次结构的限制,因此证明非常有效。

进一步探索

通过阅读论文 "Attention is All You Need "和相关文献,探索变形金刚在人工智能中的潜力。有关这些架构演变的更多信息,请考虑了解Transformer-XL和 Longformer 等模型变体,它们解决了原始 Transformer 设计中的序列限制问题。

变形金刚将继续推动人工智能领域的创新,其应用范围将从 NLP 扩展到医疗保健、金融等领域。请随时关注Ultralytics' 博客,了解变形金刚技术的最新趋势和进展。

阅读全部