当前位置: 首页 > news >正文

怎么在年报网站做简易注销seo培训教程视频

怎么在年报网站做简易注销,seo培训教程视频,网站百度收录快,中国十大电商平台排行榜一、背景信息: Bert是2018年10月由Google AI研究院提出的一种预训练模型。 主要用于自然语言处理(NLP)任务,特别是机器阅读理、文本分类、序列标注等任务。 BERT的网络架构使用的是多层Transformer结构,有效的解决了长…

一、背景信息:

Bert是2018年10月由Google AI研究院提出的一种预训练模型。
主要用于自然语言处理(NLP)任务,特别是机器阅读理、文本分类、序列标注等任务。
BERT的网络架构使用的是多层Transformer结构,有效的解决了长期依赖问题。

二、整体结构:

BERT由多个Transformer Encoder一层一层地堆叠起来。
BERT全名叫做Bidirectional Encoder Representation from Transformers,下图中用Trm表示Transformer中的Encoder模块。Encoder中在编码一个token的时候会同时利用了其上下文的token,即为Bidirectional双向的体现。

在这里插入图片描述

三、Bert 的输入

Bert 的输入向量,由x的三种向量求和而成,三种向量分别为x的词向量、句子分类向量、位置向量。
其中
词向量Token Embeddings,第一个词是[CLS]标志,通常会用在分类任务中;[SEP]标志分句符号,用于断开输入语料中的两个句子或者表示句子的结束。
句子分类向量Segment Embeddings,用来区别两种句子,有两种情况;问答等任务全部所有token全为0,其余任务第一句句所有token为0第二句所有为1。
位置向量Position Embeddings,这里的位置向量为可学习的绝对位置编码,优点是可以学习到不同位置的不同编码,而不是固定的编码。因为位置编码的维度是固定的,需要设定最大长度,不能预测超过长度的句子。
在这里插入图片描述

四、Bert训练

BERT的训练包含预训练fine-tune两个阶段。

Bert预训练:

Bert预训练(Pre-training)任务是由MLM和NSP两个自监督任务组成。

MLM:

MLM随机在输入语料上Mask掉一些词,并通过上下文预测该词。其中15%的WordPiece Token会被随机Mask掉。

  • 80%的时候会直接替换为[Mask]
  • 10%的时候将其替换为其它任意单词
  • 10%的时候会保留原始Token。
1、若句子中的某个Token 100%都会被mask掉,那么在fine-tuning的时候模型就会有一些没有见过的单词。
2、加入随机Token的原因是因为Transformer要保持对每个输入token的分布式表征。
3、因为一个单词被随机替换掉的概率只有15%*10% =1.5%,单词带来的负面影响可以忽略不计。
4、每次只预测15%的单词,因此模型收敛的比较慢。
# 优点:
# 10%的概率用任意词替换赋予Bert一定文本纠错能力;
# 10%的概率保留原始Token,缓解了finetune时与预训练时的输入不匹配。
# 缺点:
# Mask汉字割裂了连续汉字之间的相关性
NSP:

Next Sentence Prediction(NSP)任务判断句子B是否是句子A的下文。如果是的话输出’IsNext‘,否则输出’NotNext‘。

Bert的微调

基于Bert模型的微调应用近些年来,已经越来越丰富了,下面介绍三种具有代表性的简单版本的微调应用。当然如今的bert微调应用是不仅仅只有下面这零星的几个例子。

1、单文本分类

在需要进行分类的文本的开头和结尾分别加上CLS和SEP标记

[CLS] 文本 [SEP]

Bert模型输出的[CLS]标记的向量,表示整个文本序列的语义信息。
文本分类微调需要新增一个全连接层,将[CLS]标记的向量输入到全连接层,输出各类别的概率分布。

2、问答任务

从给定的上下文中找到问题的答案。输入包含上下文和问题两部分

[CLS] 上下文 [SEP] 问题 [SEP]

Bert模型的顶部添加两个分类层,分别用于预测答案的起始位置和终止位置。

3、信息抽取

对句子中语义连贯的词汇或短语逐个字的标注。
Bert模型的最后一层输出每个token的表示向量。通常在Bert模型顶部添加一个分类器,用于预测每个token是否是命名实体的token。例如:TPLinker

在这里插入图片描述

Reference

1.Attention Is All You Need
2.BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

http://www.ds6.com.cn/news/83179.html

相关文章:

  • 电影网站的代理怎么做百度知道入口
  • wordpress 装饰公司seo站长之家
  • 太原做网站公司运营seo还有哪些方面的优化
  • 建设网站开发的语言有哪些360安全浏览器
  • 可做用户密码暴力破解测试的网站自己建网站详细流程
  • 网站推广的基本手段那个推广平台好用
  • 设计师培训机构seo外链专员工作要求
  • 代做电大网站ui作业苏州网站seo服务
  • 中文静态网页模板百度seo关键词工具
  • 杭州做网站 做小程序长沙seo
  • 搜索引擎广告是什么怎么做seo网站关键词优化
  • 上海个体户注册代办秦皇岛seo招聘
  • 武汉lyg网站建设seo优化顾问服务阿亮
  • 公司做搜索引擎优化优化英文
  • WordPress.AMP优化好搜移动端关键词快速排名
  • 成都网站建设众成联邦一个网站可以优化多少关键词
  • 网站做竞价对seo有影响吗代写文章哪里找写手
  • 综合商城网站程序微信做单30元一单
  • 123网络之家主页seo优化排名营销
  • 烟台莱州网站建设泉州seo报价
  • 周口市住房和城乡建设局门户网站中美关系最新消息
  • 在网站留外链怎么做免费注册二级域名的网站
  • 广州做商城网站卖网站链接
  • banner 推广网站google浏览器官方下载
  • 宿迁宿豫网站建设电脑网络优化软件
  • 公司网站可以个人备案吗万词优化
  • 商丘做手机做网站武汉网站开发公司
  • java做电影广告网站百度图片识别
  • 建站之星官网建设收录之家
  • 可信网站认证是否必须做建网站的软件有哪些