了解Google 的革命性 NLP 模型 BERT。了解其双向上下文理解如何改变搜索和聊天机器人等人工智能任务。
BERT是Bidirectional Encoder Representations from Transformers的缩写,是Google 人工智能语言研究人员开发的一项具有里程碑意义的自然语言处理(NLP)预训练技术。BERT 于 2018 年通过极具影响力的论文《BERT:用于语言理解的深度双向变换器预训练》问世,彻底改变了机器理解人类语言的方式。它是最早的深度双向、无监督语言表征之一,仅使用维基百科这样的纯文本语料进行预训练。BERT 利用功能强大的Transformer 架构,特别是编码器部分,同时而不是按顺序处理单词与句子中所有其他单词的关系。与以前的单向模型相比,这可以更深入地理解上下文。
与早期只按单一方向(从左到右或从右到左)处理文本的模型不同,BERT 利用其变换器编码器和自我注意机制一次性处理整个单词序列。这种双向方法使其能够根据一个单词前后的周边单词来把握该单词的上下文。例如,BERT 可以通过考虑整个句子的上下文来区分 "我要去银行取钱 "和 "河岸很泥泞 "中 "银行 "的含义。
在预训练阶段,BERT 通过大量文本数据学习这些复杂的语言关系。这涉及两项主要的无监督任务:
这种预训练的结果是一个具有丰富语言嵌入的模型,可以捕捉语法和语义。然后,可以使用较小的特定任务数据集,针对各种特定的下游 NLP 任务快速调整或"微调"这种预训练 BERT 模型。这种利用预训练知识的过程就是迁移学习的一种形式。
BERT 理解语言细微差别的能力已在现实世界的各种人工智能 (AI)应用中取得了重大改进:
虽然 BERT 主要用于 NLP,但它所普及的变换器架构也为计算机视觉(CV)领域的进步带来了灵感,例如在以下模型中使用的视觉变换器(ViT)RT-DETR.Ultralytics HUB等平台有助于训练和部署各种人工智能模型,包括那些基于 Transformer 原理构建的模型。