当前位置: 首页 > news >正文

b2b网站建设公司杭州seo公司

b2b网站建设公司,杭州seo公司,美食城网站建设策划书,做网站和APP需要多少钱模型总览 第一篇《Biological structure and function emerge from scaling unsupervised learning to 250 million protein sequences 》ESM-1b 第二篇《MSA Transformer》在ESM-1b的基础上作出改进,将模型的输入从单一蛋白质序列改为MSA矩阵,并在Tran…

模型总览

  • 第一篇《Biological structure and function emerge from scaling unsupervised learning to 250 million protein sequences 》ESM-1b

  • 第二篇《MSA Transformer》在ESM-1b的基础上作出改进,将模型的输入从单一蛋白质序列改为MSA矩阵,并在Transformer中加入行、列两种轴向注意力机制,对位点分别计算第个序列和第个对齐位置的影响,充分利用二维输入的优势。

  • 第三篇《Language models enable zero-shot prediction of the effects of mutations on protein function 》中提出了ESM-1v模型,该模型与ESM-1b模型构架相同,只是预训练数据集改为UR90(ESM-1b预训练数据集为UR50)

  • 第四篇《Language models of protein sequences at the scale of evolution enable accurate structure prediction》,ESMFold,提出了ESM2,代替MSA部分和Structure Template部分,对Postion Embedding做了修改,可以支持更长的氨基酸序列编码

模型名称input普适性模型论文
ESM-1bsingle sequencefamily-specifictransformer encoderBiological structure and function emerge from scaling unsupervised learning to 250 million protein sequences
ESM-MSA-1bMSAfew-shot加了两个行列注意力机制MSA Transformer
ESM-1vsingle sequencezero-shottransformer encoderLanguage models enable zero-shot prediction of the effects of mutations on protein function
ESM-2single sequencezero-shottransformer encoderLanguage models of protein sequences at the scale of evolution enable accurate structure prediction

ESM-1B的模型大小如下所示
在这里插入图片描述

ESM2模型大小如下所示(esm-github截图):
在这里插入图片描述

ESM-2 embedding(不同于word2vec,和BERT一样?):

Bert输入Embeddings包含三个部分,第一部分为token的embeddings,第二部分为位置编码的embeddings,第三部分为token所属段落编码的embeddings

  • tokenizer(由wordpiece创建)对输入蛋白会头尾添加cls、eos特殊字符,占两个字符长度 ,加Padding Token [PAD]
  • tokenizer会创建固定大小的词汇表,进行分词,查词汇表将token转化成索引列表

tokenizer首先检查整个单词是否在词汇表中。如果没有,则尝试将单词分解为词汇表中包含的尽可能大的子单词,最后将单词分解为单个字符。注意,由于这个原因,我们总是可以将一个单词表示为至少是它的单个字符的集合
self.word_embeddings = nn.Embedding(config.vocab_size, config.hidden_size, padding_idx=0),相同位置输出相同
将这3个ID序列输入到BERT中就会按照BERT模型的定义依次将各种ID转换为对应的embedding
Token Embeddings, (1, n, 768) ,词的向量表示
Segment Embeddings, (1, n, 768),辅助BERT区别句子对中的两个句子的向量表示,EMS2将蛋白质视为几个句子?
Position Embeddings ,(1, n, 768) ,让BERT学习到输入的顺序属性

  • 分词后送入token embedding层从而将每一个词转换成向量形式

ESM-2 output:

和BERT一样

http://www.ds6.com.cn/news/76565.html

相关文章:

  • 做国际贸易做什么网站互联网优化
  • 网站建设选哪个公司网站报价
  • 进入网站服务器怎么做中国行业数据分析网
  • 云服务器怎么做多个网站搜狗推广登录
  • 北京朗晨网站建设百度联盟广告
  • 做网站公司找哪家公司百度一下官方入口
  • 建设网站企业网上银行app推广怎么联系一手代理
  • 怎么看网站空间大小重庆seo哪个强
  • 各种类型网站建设口碑好友情链接批量查询
  • 企业所得税和增值税的区别晋城网站seo
  • c#网站开发案例源码网上营销推广
  • 关于网站制作360推广开户
  • 做返利网站怎麼常州seo
  • 网站什么做的哪些平台可以免费发布产品
  • 锦州北京网站建设sem竞价推广托管
  • 网站设计是怎么做的企业推广公司
  • 企业网络推广网站seo顾问张智伟
  • 网站开发成本主要有哪些seo关键词查询
  • 网站建设餐饮网络营销策划方案书范文
  • 怎么建立网站推广制作网页设计公司
  • 中国网站设计模板市场监督管理局是干什么的
  • 公司网站建设预算重庆关键词优化软件
  • 怎么做网站关键词库排名百度查重免费
  • 平台式网站模板下载百度推广代理商加盟
  • 有没有人一起做网站线上推广方式
  • 温州网站建设有限公司网络游戏推广员的真实经历
  • 外贸综合服务网站建设网站建设的意义和作用
  • 做打折的淘宝小卖家的网站襄阳网站推广优化技巧
  • 网站开发技术可行性关键词查询工具有哪些
  • 太原做网站站长统计在线观看