术语表

BERT(来自变压器的双向编码器表示法)

了解Google 的革命性 NLP 模型 BERT。了解其双向上下文理解如何改变搜索和聊天机器人等人工智能任务。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

BERT是Bidirectional Encoder Representations from Transformers的缩写,是Google 人工智能语言研究人员开发的一项具有里程碑意义的自然语言处理(NLP)预训练技术。BERT 于 2018 年推出,是首个深度双向、无监督的语言表征,仅使用纯文本语料进行预训练,从而彻底改变了机器理解人类语言的方式。它利用强大的Transformer 架构,特别是编码器部分,将单词与句子中的所有其他单词联系起来处理,而不是按顺序处理。

伯特如何工作

与以往只按单一方向(从左到右或从右到左)处理文本的模型不同,BERT 可一次性处理整个单词序列。这种双向方法使它能够根据一个单词前后的周边单词掌握该单词的上下文。试想一下,要理解 "我去银行存钱 "中的 "银行 "一词与 "我坐在河岸上 "中的 "银行 "一词是什么意思。BERT 的双向性可以帮助它有效地区分这些含义。它通过在大量文本数据(如维基百科)上进行预训练,利用掩码语言建模(预测隐藏单词)和下一句预测等技术来学习这些关系。由此产生的预训练模型包含丰富的语言嵌入,可以针对特定的下游 NLP 任务,使用较小的特定任务数据集进行快速调整或"微调"。

主要功能和优点

  • 双向语境:根据完整的句子上下文理解词义,从而在需要深入理解语言的任务中提高准确性。
  • 预训练和微调:提供功能强大的预训练模型,可捕捉一般的语言理解能力,并可轻松调整用于情感分析问题解答等特定应用。这大大降低了每项任务对大型标注数据集的需求。
  • 最先进的性能:一经发布就在广泛的 NLP 基准测试中取得了突破性成果,为语言模型设定了新标准。您可以浏览BERT ArXiv 论文中的原始研究。
  • 多功能性:可用于各种 NLP 任务,包括文本分类、命名实体识别和自然语言推理。

实际应用

BERT 能够理解语言的细微差别,因此在各种应用中都取得了重大改进:

  1. 搜索引擎: Google 将 BERT 集成到其搜索引擎中,以更好地理解用户查询。正如Google 人工智能博客关于搜索中的 BERT 的文章中详细介绍的那样,这有助于通过掌握复杂或对话式查询背后的上下文和意图来提供更相关的搜索结果。
  2. 对话式人工智能:BERT 可使聊天机器人和虚拟助手更好地理解用户请求,在对话过程中保持上下文语境,并提供更准确、更有帮助的回复,从而增强聊天机器人和虚拟助手的功能。从而实现更自然、更有效的人机交互。

其他应用包括改进文本摘要工具和增强机器翻译系统。

伯特与同类机型对比

BERT 主要侧重于为理解任务编码文本。它的双向性与早期的单向模型如基本的递归神经网络 (RNN))形成鲜明对比。虽然 BERT 也是基于变换器架构,但它与GPT(生成式预训练变换器)等模型不同,后者通常是为生成文本而非仅仅编码文本而优化的。Transformer 架构本身也适用于计算机视觉任务,如Vision Transformer (ViT) 等模型,显示了该架构在 NLP 之外的灵活性。许多预训练的 BERT 模型可以通过以下平台随时获得 Hugging Face等平台提供,并可通过Ultralytics HUB 等工具集成到工作流程中。

阅读全部