【NLP】一文读懂Bert模型

7 篇文章 3 订阅
订阅专栏
BERT是一个基于Transformer的预训练语言模型,通过MaskedLanguageModel(MLM)和NextSentencePrediction(NSP)任务生成深层双向语言表征。模型结构由多层Transformer堆叠构成,输入包括Token、Segment和Positionembeddings。预训练阶段的任务设计允许BERT理解和处理不同类型的自然语言任务。
摘要由CSDN通过智能技术生成
Bert模型

 0、Bert模型简介 

        BERT的全称为Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以致能生成深度的双向语言表征。BERT论文发表时提及在11个NLP(Natural Language Processing,自然语言处理)任务中获得了新的state-of-the-art(最先进)的结果,令人目瞪口呆。

该模型有以下主要优点:

1)采用MLM双向的Transformers进行预训练,以生成深层的双向语言表征

2)预训练后,只需要添加一个额外的输出层进行fine-tune(微调),就可以在各种各样的下游任务中取得state-of-the-art的表现。在这过程中并不需要对BERT进行任务特定的结构修改。

那BERT是如何实现的呢?

1. BERT的结构

        以往的预训练模型的结构会受到单向语言模型(从左到右或者从右到左)的限制,因而也限制了模型的表征能力,使其只能获取单方向的上下文信息。而BERT利用MLM进行预训练并且采用深层的双向Transformer组件(单向的Transformer一般被称为Transformer decoder,其每一个token(符号)只会attend到目前往左的token。而双向的Transformer则被称为Transformer encoder,其每一个token会attend到所有的token。)来构建整个模型,因此最终生成能融合左右上下文信息的深层双向语言表征。关于Transformer的详细解释可以参见Attention Is All You Need 或者  The Illustrated Transformer (首推!)

当隐藏了Transformer的详细结构后,我们就可以用一个只有输入和输出的黑盒子来表示它了:

黑盒子Transformer

Transformer结构又可以进行堆叠,形成一个更深的神经网络(这里也可以理解为将Transformer encoder进行堆叠):

对Transformer结构进行堆叠

最终,经过多层Transformer结构的堆叠后,形成BERT的主体结构

BERT的主体结构
该部分就是由多个Transformer结构所堆叠在一起

          对于不同的下游任务,BERT的结构可能会有不同的轻微变化,因此接下来只介绍预训练阶段的模型结构。

1.1 BERT的输入

BERT的输入

 BERT的输入为每一个token对应的表征(图中的粉红色块就是token,黄色块就是token对应的表征,并且单词字典是采用WordPiece算法来进行构建的。为了完成具体的分类任务,除了单词的token之外,作者还在输入的每一个序列开头都插入特定的分类token([CLS]),该分类token对应的最后一个Transformer层输出被用来起到聚集整个序列表征信息的作用。

由于BERT是一个预训练模型,其必须要适应各种各样的自然语言任务,因此模型所输入的序列必须有能力包含一句话(文本情感分类,序列标注任务)或者两句话以上(文本摘要,自然语言推断,问答任务)。那么如何令模型有能力去分辨哪个范围是属于句子A,哪个范围是属于句子B呢?BERT采用了两种方法去解决:

1)在序列tokens中把分割token([SEP])插入到每个句子后,以分开不同的句子tokens。 

2)为每一个token表征都添加一个可学习的分割embedding来指示其属于句子A还是句子B。

因此最后模型的输入序列tokens为下图(如果输入序列只包含一个句子的话,则没有[SEP]及之后的token)

模型的输入序列

 上面提到了BERT的输入为每一个token对应的表征,实际上该表征是由三部分组成的,分别是对应的token,分割和位置 embeddings(位置embeddings的详细解释可参见 Attention Is All You Need 或  The Illustrated Transformer),如下图:

token表征的组成

到此为止,BERT的输入已经介绍完毕,可以看到其设计的思路十分简洁而且有效。

1.2 BERT的输出

介绍完BERT的输入,实际上BERT的输出也就呼之欲出了,因为Transformer的特点就是有多少个输入就有多少个对应的输出,如下图:

BERT的输出

C为分类token([CLS])对应最后一个Transformer的输出,T_i 则代表其他token对应最后一个Transformer的输出。对于一些token级别的任务(如,序列标注和问答任务,就T_i  输入到额外的输出层中进行预测。对于一些句子级别的任务(如,自然语言推断和情感分类任务,就C输入到额外的输出层中,这里也就解释了为什么要在每一个token序列前都要插入特定的分类token。

 到此为止,BERT的输入输出都已经介绍完毕了,更多具体的细节可以到原论文中察看。

2. BERT的预训练任务

实际上预训练的概念在CV(Computer Vision,计算机视觉)中已经是很成熟了,应用十分广泛。CV中所采用的预训练任务一般是ImageNet图像分类任务,完成图像分类任务的前提是必须能抽取出良好的图像特征,同时ImageNet数据集有规模大、质量高的优点,因此常常能够获得很好的效果。

虽然NLP领域没有像ImageNet这样质量高的人工标注数据,但是可以利用大规模文本数据的自监督性质来构建预训练任务。因此BERT构建了两个预训练任务,分别是Masked Language ModelNext Sentence Prediction

2.1 Masked Language Model(MLM)

MLM是BERT能够不受单向语言模型所限制的原因。简单来说就是以15%的概率用mask token ([MASK])随机地对每一个训练序列中的token进行替换,然后预测出[MASK]位置原有的单词。然而,由于[MASK]并不会出现在下游任务的微调(fine-tuning)阶段,因此预训练阶段和微调阶段之间产生了不匹配(这里很好解释,就是预训练的目标会令产生的语言表征对[MASK]敏感,但是却对其他token不敏感)。因此BERT采用了以下策略来解决这个问题:

首先在每一个训练序列中以15%的概率随机地选中某个token位置用于预测,假如是第i个token被选中,则会被替换成以下三个token之一

1)80%的时候是[MASK]。如,my dog is hairy——>my dog is [MASK]

2)10%的时候是随机的其他token。如,my dog is hairy——>my dog is apple

3)10%的时候是原来的token(保持不变,个人认为是作为2)所对应的负类)。如,my dog is hairy——>my dog is hairy

用该位置对应的 T_i 去预测出原来的token输入到全连接,然后用softmax输出每个token的概率,最后用交叉熵计算loss)

softmax函数介绍

定义

在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数
softmax用于多分类过程中,是逻辑函数的一种推广。它能将一个含任意实数的K维的向量z的“压缩”到另一个K维实向量σ(z) 中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1

公式


举例:在多项逻辑回归和线性判别分析中,函数的输入是从K个不同的线性函数得到的结果,而样本向量 x 属于第 j 个分类的概率为:

softmax计算过程

        softmax直白来说就是将原来输出是3,1,-3通过softmax函数一作用,就映射成为(0,1)的值,而这些值的累和为1(满足概率的性质),那么我们就可以将它理解成概率,在最后选取输出结点的时候,我们就可以选取概率最大(也就是值对应最大的)结点,作为我们的预测目标!

该策略令到BERT不再只对[MASK]敏感,而是对所有的token都敏感,以致能抽取出任何token的表征信息。这里给出论文中关于该策略的实验数据:

多种策略的实验结果

2.2 Next Sentence Prediction(NSP)

一些如问答、自然语言推断等任务需要理解两个句子之间的关系,而MLM任务倾向于抽取token层次的表征,因此不能直接获取句子层次的表征。为了使模型能够有能力理解句子间的关系,BERT使用了NSP任务来预训练,简单来说就是预测两个句子是否连在一起。具体的做法是:对于每一个训练样例,我们在语料库中挑选出句子A和句子B来组成,50%的时候句子B就是句子A的下一句(标注为IsNext),剩下50%的时候句子B是语料库中的随机句子(标注为NotNext)。接下来把训练样例输入到BERT模型中,[CLS]对应的C信息去进行二分类的预测。

2.3 预训练任务总结

最后训练样例长这样:

Input1=[CLS] the man went to [MASK] store [SEP] he bought a gallon [MASK] milk [SEP]

Label1=IsNext

Input2=[CLS] the man [MASK] to the store [SEP] penguin [MASK] are flight ##less birds [SEP]

Label2=NotNext

把每一个训练样例输入到BERT中可以相应获得两个任务对应的loss,再把这两个loss加在一起就是整体的预训练loss。(也就是两个任务同时进行训练)

可以明显地看出,这两个任务所需的数据其实都可以从无标签的文本数据中构建(自监督性质),比CV中需要人工标注的ImageNet数据集可简单多了。

3、总结

以上就是BERT的简介,如果看完后还想更进一步地了解详细的实验内容,直接看论文原文是你最好的选择。

参考资料:

https://arxiv.org/pdf/1810.04805.pdf​arxiv.org/pdf/1810.04805.pdf

The Illustrated Transformer​jalammar.github.io/illustrated-transformer

【人工智能时代】- 一文读懂 Transformer 神经网络模型
xiaoli8748的专栏
09-21 983
在实际的业务场景中,Transformer 模型通常是通过在大规模数据上进行预训练,然后在特定任务上进行微调来实现高性能,从而使得模型在实际推理过程中对于新领域或特定任务的适应性有限。在某些特定的场景下,由于 Transformer 模型中自注意力机制的特性,其对于长文本的处理存在一定的困难。打个比方,在机器翻译模型中,注意力机制使得 Transformer 能够根据所有相关单词的上下文,将英语中的"it"正确翻译为法语或西班牙语中的性别对应的词汇。上述两个模型的最显著区别在于“规模”和“功能”。
BERT模型工程
11-22
google 最新推出的BERT模型工程代码,在11个NLP数据集上达到最优效果
BERT模型的详细介绍
热门推荐
IT之一小佬的博客
04-01 11万+
BERT模型的详细介绍 1.BERT 的基本原理是什么? BERT 来自 Google 的论文Pre-training of Deep Bidirectional Transformers for Language Understanding,BERT 是“Bidirectional Encoder Representations from Transformers”的首字母缩写,整体是一个自编码语言模型(Autoencoder LM),并且其设计了两个任务来预训练该模型。 第一个任务是采用 Ma
BERT 模型详解
最新发布
m0_63171455的博客
09-08 1220
BERT(代表 Bidirectional Encoder Representations from Transformers)是 Google 于 2018 年开发的开源模型。这是一项雄心勃勃的实验,旨在测试所谓的 Transformers(一种创新的神经架构,由谷歌研究人员在 2017 年的著名论文[《注意力是你所需要的一切]》中提出)在自然语言 (NLP) 任务上的性能。BERT成功的关键在于其变压器架构。在 Transformer 出现之前,对自然语言进行建模是一项非常具有挑战性的任务。
一文读懂BERT模型
yihong23的博客
05-07 8524
语言表示模型 BERT 详解 摘要:在自然语言处理NLP)领域,BERT(Bidirectional Encoder Representations from Transformers)是近几年出现的、影响深远的创新模型之一。自 2018 年由谷歌团队发布以来,BERT 为众多 NLP 任务设定了新的基准。BERT旨在通过在所有层中对左右上下文进行联合条件反射,从未标记的文本中预训练深度双向表示。因此,预训练的BERT模型可以通过一个额外的输出层进行微调,从而为广泛的任务(如问答和语言推理)创建最先进的
深度学习BERT模型
皮皮blog
12-18 4万+
BERT出自的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer的Encoder。作为一个Word2Vec的替代者,其在NLP领域的11个方向大幅刷新了精度,可以说是近年来自残差网络最优突破性的一项技术了。模型的主要创新点都在pre-train方法上,即用了Masked LM和Next Sentence Prediction两种方法分别捕捉词语和句子级别的representation。
BERT模型
发呆的比目鱼的博客
08-07 2万+
BERT模型 Paper: https://arxiv.org/abs/1810.04805 BERT 全称为Bidirectional Encoder Representation from Transformers(来自Transformers的双向编码表示),谷歌发表的发的论文Pre-traning of Deep Bidirectional Transformers for Language Understanding中提出的一个面向自然语言处理任务的无监督预训练语言模型。是近年来自然语言处理领域公
一文读懂ChatGPT模型原理.docx
04-20
ChatGPT模型是当前人工智能领域的热门话题,尤其在自然语言处理NLP)技术中扮演着重要角色。本文将简要介绍ChatGPT模型的基本原理,以及它与Bert模型和GPT系列的关系。 首先,Bert模型是2018年由谷歌推出的,它的...
原创 | 一文读懂 BERT 源代码
数据派THU
09-12 966
文:陈之炎 本文约4400字,建议阅读10+分钟本文对BERT模型预训练任务的源代码进行了详细解读,在Eclipse开发环境里,对BERT 源代码的各实现步骤分步解析。BERT模型架构是一种基于多层双向变换器(Transformers)的编码器架构,在tensor2tensor库框架下发布。由于在实现过程当中采用了Transformers,BERT模型的实现几乎与Transformers一样。B...
一文读懂:大模型RAG
weixin_42029738的博客
06-11 599
本文概述 RAG 的核心算法,并举例说明其中的一些方法。RAG融合是一个强大的功能,能够提高RAG应用的语义搜索效率。通过使用语言模型生成多个查询并对搜索结果进行重新排序,RAG融合可以呈现更丰富多样的内容,并提供了一个额外的层次,用于调整应用。此外,RAG融合还可以实现自动纠正、节省成本以及增加内容多样性。但是,需要注意一些权衡,比如潜在的延迟问题、自动纠正的挑战以及成本影响。对于依赖常见概念但可能出现内部行话或重叠词汇的应用来说,RAG融合尤其有用。
一文读懂最强中文NLP预训练模型ERNIE
lovenlper的博客
12-17 946
基于飞桨开源的持续学习的语义理解框架ERNIE 2.0,及基于此框架的ERNIE 2.0预训练模型,在共计16个中英文任务上超越了BERT和XLNet, 取得了SOTA效果。本文带你进一步深入了解ERNIE的技术细节。 一:ERNIE 简介 1.1 简介 Google 最近提出的 BERT 模型,通过随机屏蔽15%的字或者word,利用 Transformer 的多层 self-attent...
图解BERT模型
qq_38343151的博客
02-04 8775
1. 模型的输入/输出 BERT模型的全称是:BidirectionalEncoder Representations from Transformer。从名字中可以看出,BERT模型的目标是利用大规模无标注语料训练、获得文本的包含丰富语义信息的Representation,即:文本的语义表示,然后将文本的语义表示在特定NLP任务中作微调,最终应用于该NLP任务。煮个栗子,BERT模型训练文本语...
一文读懂BERT模型(理论篇)
a_123zxy的博客
09-17 1755
BERT模型理论解读 序言 BERT(Bidirectional Encoder Representations from Transformers)是一个语言表达模型(language representation model)。在《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》一文中被提出,它是Transformer模型中的encoder部分,通过pretraining和finetunin
一文看懂Transformer到BERT模型
fengdu78的博客
02-23 8001
目录:ELMo与Transformer的简单回顾DAE与Masked Language ModelBERT模型详解BERT模型的不同训练方法如何把BERT模型应用在实际项目中如何对BER...
图解BERT:通俗的解释BERT是如何工作的
deephub
04-15 8102
谷歌2018年发布的BERTNLP最有影响力的论文之一。 在本文中,我将进一步介绍BERT,这是最流行的NLP模型之一,它以Transformer为核心,并且在许多NLP任务(包括分类,问题回答和NER)上均达到了最先进的性能。 具体地说,与其他关于同一主题的文章不同,我将试着浏览一遍极具影响力的BERT论文——Pre-training of Deep Bidirectional Transformers for Language Understanding,同时将尽量是用通俗的描述而不使用术语,并尝试通
详细介绍BERT模型
zag666的博客
11-16 1万+
BERT通过在所有层中联合调节左右语境,从未标记的文本中预训练深度双向表征。因此,预训练的BERT模型可以通过一个额外的输出层进行微调,以创建最先进的模型,用于更广泛的任务,而无需对特定任务的架构进行大量修改。
写文章

热门文章

  • 算法第三期——二分法(Python) 8126
  • 算法第六期——DFS初入门(深度优先搜索)(Python) 7333
  • ChatGPT的前世今生 6261
  • 【蓝桥杯】简单数论1——GCD&LCM 4830
  • Debug | zip和unzip 的安装与使用(Windows) 4686

分类专栏

  • 【蓝桥杯Python】算法通关手册 付费 21篇
  • 【蓝桥杯Python】数据结构通关手册 付费 11篇
  • 【蓝桥杯Python】刷题区 36篇
  • 【蓝桥杯Python】备战区 12篇
  • 计算机知识扫盲 1篇
  • PyTorch 10篇
  • Python+数据分析 8篇
  • NLP 7篇
  • 机器学习sklearn 5篇
  • 那些年我们遇到的报错 3篇
  • Linux操作系统

最新评论

  • 【Python】permutations()函数

    奇犽揍敌客: 对元组进排列操作的结果是不是有问题,c = ('e','f','g') #对元组进行permutations排列组合 for j in permutations(c,2): print (j) print ('------------------------------')

  • 【PyTorch】第五节:损失函数与优化器

    Scott_D_: 感谢博主!请问一下loss.backward()计算出的梯度是怎么传递到optimizer的呢

  • 算法第三期——二分法(Python)

    Z12C42: 搞不明白某道题是要求x的前驱还是后继咋办

  • 自定义排序规则:functools.cmp_to_key(callable)

    爱跳舞的咸鱼: 非常感谢,终于懂了.

  • 蓝桥杯刷题014——求阶乘(二分法)

    厂大师兄: 借你吉言!

大家在看

  • 《 C++ 修炼全景指南:十六 》玩转 C++ 特殊类:C++ 六种必备特殊类设计的全面解析 3433
  • 许少辉语言午读《乡村振兴战略下传统村落文化旅游设计》正式动作辉少许 1029
  • 代码练习:打印正六边形
  • js.水壶问题 831
  • C# 标准绘图控件 chart 多 Y 值的编程应用 342

最新文章

  • 数据结构-第一期——数组(Python)
  • 解决 filezilla 连接服务器失败问题
  • 知识扫盲:id rsa、 id rsa.pub 和authorized keys
2023年101篇
2022年14篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小叶pyか

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家金色玻璃钢花盆组合玻璃钢艺术雕塑材质安顺商场美陈道具设计玻璃钢雕塑仿真水果成都定制玻璃钢雕塑优势动漫玻璃钢雕塑定做南京溧水美陈商场品质好的玻璃钢雕塑周口公园标识玻璃钢景观雕塑惠州玻璃钢小品雕塑云南公园玻璃钢雕塑订做价格云浮玻璃钢雕塑出厂价格临沧市玻璃钢雕塑设计供应商浦口百货商场美陈新郑室内玻璃钢仿铜雕塑公司各大商场周年庆活动美陈泰州美陈商场布置浙江特色商场美陈厂家直销树脂玻璃钢雕塑葫芦娃贵州定做人物玻璃钢雕塑内江玻璃钢卡通雕塑定制泡沫雕塑玻璃钢雕塑制作工艺黄山抽象玻璃钢雕塑批发精美玻璃钢雕塑制作玻璃钢动物雕塑保养漯河锻铜校园玻璃钢景观雕塑狗年商场美陈雕塑湖北水果玻璃钢雕塑图片做玻璃钢雕塑价格表大连惠州玻璃钢雕塑香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化