当前位置: 首页 > news >正文

做外单什么网站好家庭优化大师

做外单什么网站好,家庭优化大师,网站收录量,五台网站建设基础篇:Transformer 引言模型基础架构原论文架构图EmbeddingPostional EncodingMulti-Head AttentionLayerNormEncoderDecoder其他 引言 此文作者本身对transformer有一些基础的了解,此处主要用于记录一些关于transformer模型的细节部分用于进一步理解其具体的实现机…

基础篇:Transformer

  • 引言
  • 模型基础架构
    • 原论文架构图
    • Embedding
    • Postional Encoding
    • Multi-Head Attention
    • LayerNorm
    • Encoder
    • Decoder
    • 其他

引言

此文作者本身对transformer有一些基础的了解,此处主要用于记录一些关于transformer模型的细节部分用于进一步理解其具体的实现机制,输入输出细节,以及一些理解.此文会不定期更新用于记录新学习到的知识.

模型基础架构

原论文架构图

首先给出的是原论文 Attention is all you need中的架构图,我们会在这个篇章部分分列模型pipeline中的各个部件。在最后给出关于这个模型图中没有的细节补充。

论文原图

Embedding

其使用的是nn.embedding来进行初始化,根据词表里的数量和设置的隐层维度来初始化,可训练。(**TODO:**这里会存在词表的初始化问题,即分词方法,在后续介绍)

Postional Encoding

两种编码方式,learned PE是绝对位置编码,即直接随机初始化一个可训练的参数;Sinusoidal PE为相对位置的三角编码,首先根据位置pos和隐层维度位置i得到embedding值
f ( p o s , i ) = s i n ( p o s 1000 0 i N ) i f i 为奇数   e l s e c o s f(pos,i)=sin(\frac{pos}{10000^{\frac{i}{N}}}) \ \ \ \ if\ \ i为奇数\ \ else\ \ cos f(pos,i)=sin(10000Nipos)    if  i为奇数  else  cos

Multi-Head Attention

单头attention 的 Q/K/V 的shape和多头attention 的每个头的Qi/Ki/Vi的大小是不一样的,假如单头attention 的 Q/K/V的参数矩阵WQ/WK/WV的shape分别是[512, 512] (此处假设encoder的输入和输出是一样的shape),那么多头attention (假设8个头)的每个头的Qi/Ki/Vi的参数矩阵WQi/WKi/WVi大小是[512, 512/8].

LayerNorm

BatchNorm本质是对同一个批次中,每一个数据样本的不同通道求均值方差,通道之间不进行交互,并通过滑动动量平均的方式将批次的均值方差记录下来用于推理。BN相对更适合在数据批次上具有统计意义的问题,其会抹平特征之间的差异,保留样本之间的大小关系。而在NLP任务当中,每个句子内部的特征大小关系才是需要保留的,不同句子之间关联不大,因此抹平样本之间的大小关系更为合适。

Encoder

Encoder一般包含两部分,self-attention和feed-forward。每一层Encoder都有独立的一组权重参数。最后一层Encoder得到的Wk,Wv用于计算Decoder的cross-attention。

Decoder

Decoder一般包含三个部分,self-attention, encoder-decoder-attention和feed-forward。在这里和这里有一些关于Decoder实际部署时的运行细节。

在训练的时候,Decoder通过mask得到ground truth的shift-right的下三角矩阵,对于位置t,其拥有前t-1个时刻的所有信息,之后计算矩阵得到该位置的output,该output和同位置的ground truth计算损失(即teach forcing的方法)。在推理时,通过padding一个一个输入,但只取最后一个时刻的output作为全局的预测结果,因此可能存在非对应位置最优解(即beam search)。

其他

  • 编码层解码层堆栈:事实上encoder和decoder是可以进行stack的,原论文图中只展示了一层,其实际实现逻辑是下图。
    在这里插入图片描述
  • transformer只能够处理定长输入和定长输出,对于长度不定的数据,通过padding -INF等方法来进行补全,由于softmax的存在这些会约等于0。
http://www.mmbaike.com/news/21496.html

相关文章:

  • 怎么把别人做的网站变成自己的百度top风云榜
  • 网站上添加百度地图公关服务
  • 网页设计师证书什么时候考seo研究中心道一老师
  • 免费b2b网站大全在线今日头条新闻10条
  • 网站发布方式 提高上海优化公司
  • 贵州华瑞网站建设有限公司百度人工申诉客服电话
  • 没有地址可以注册公司吗?上海seo有哪些公司
  • 深圳好看的公司网站百度数据
  • 那个网站可以做域名跳转的泉州百度推广排名优化
  • 电销公司排名前十广州aso优化公司 有限公司
  • 怎么用flash做网站百家号官网
  • 网站伪静态好还是静态好湖北网络推广公司
  • 网络推广营销团队百度关键词搜索引擎排名优化
  • 阐述电子商务网站的建设要求百度霸屏全网推广
  • 做网站公司哪家公司好手机百度正式版
  • 自己做产品网站怎么做市场营销和推广
  • 简单的购物网站项目小程序开发公司
  • 文创产品创意设计百度搜索引擎优化的养成良好心态
  • 做网站 域名不属于辅导班
  • 凯里做网站安徽网络优化公司
  • 在淘宝做印刷网站怎么办理北京做seo的公司
  • 网站建设与网页制作案例教程网站seo诊断分析
  • 开个网站做英语培训山东网站建设
  • 有哪些做软件的网站外贸营销
  • 如何让自己做的博客网站上线网站建设是什么工作
  • 个人网站开发盈利模式百度搜索引擎关键词优化
  • 可以做拟合的在线网站婚恋网站排名前10
  • seo 网站地图百度seo简爱
  • 深圳网站建设怎样做外贸建站推广公司
  • 电子商务网站提供的主要功能有网站搭建源码