了解Google 的革命性 NLP 模型 BERT。了解其双向上下文理解如何改变搜索和聊天机器人等人工智能任务。
BERT是Bidirectional Encoder Representations from Transformers的缩写,是Google 人工智能语言研究人员开发的一项具有里程碑意义的自然语言处理(NLP)预训练技术。BERT 于 2018 年推出,是首个深度双向、无监督的语言表征,仅使用纯文本语料进行预训练,从而彻底改变了机器理解人类语言的方式。它利用强大的Transformer 架构,特别是编码器部分,将单词与句子中的所有其他单词联系起来处理,而不是按顺序处理。
与以往只按单一方向(从左到右或从右到左)处理文本的模型不同,BERT 可一次性处理整个单词序列。这种双向方法使它能够根据一个单词前后的周边单词掌握该单词的上下文。试想一下,要理解 "我去银行存钱 "中的 "银行 "一词与 "我坐在河岸上 "中的 "银行 "一词是什么意思。BERT 的双向性可以帮助它有效地区分这些含义。它通过在大量文本数据(如维基百科)上进行预训练,利用掩码语言建模(预测隐藏单词)和下一句预测等技术来学习这些关系。由此产生的预训练模型包含丰富的语言嵌入,可以针对特定的下游 NLP 任务,使用较小的特定任务数据集进行快速调整或"微调"。
BERT 能够理解语言的细微差别,因此在各种应用中都取得了重大改进:
其他应用包括改进文本摘要工具和增强机器翻译系统。
BERT 主要侧重于为理解任务编码文本。它的双向性与早期的单向模型(如基本的递归神经网络 (RNN))形成鲜明对比。虽然 BERT 也是基于变换器架构,但它与GPT(生成式预训练变换器)等模型不同,后者通常是为生成文本而非仅仅编码文本而优化的。Transformer 架构本身也适用于计算机视觉任务,如Vision Transformer (ViT) 等模型,显示了该架构在 NLP 之外的灵活性。许多预训练的 BERT 模型可以通过以下平台随时获得 Hugging Face等平台提供,并可通过Ultralytics HUB 等工具集成到工作流程中。