


全文预览已结束
下载本文档
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
于RNN的编码-解码器框架中使用注意力机制为特征的不同方面分配权重从而的隐藏状态融合成新的上下文向量,如下图2.3所示:在全局注意力机制下,编码器的隐藏状态h会与序列中所有的源状态h进行比较,通过这种方式对h与h相关程度进行打分,接着对每一个隐藏状态h权重at,a是一个变长对齐向量,表示当前时刻的万对应于所有原始万的注意力并不理想。为了克服这一困难,提出了局部注意力机制[61,解码器只需注意一小部分编码器状态即可,如下图2.4所示:当源序列和目标序列不是单调对齐时,寻找局部中心位置算法称为PredictiveAlignment,通过构建参数,让网络自学习并优化参数,最终找到正确的中心位置。如下(2-15)式所示:Pt=S·sigmoid(vitanh(W₀htσ=为标准差的高斯分布系数U(p,o)。与全局注意力机制类似,得到at以后,再将at与编码器的所有隐含状态进行一个加权和的操作即可得到最终的上下文
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
评论
0/150
提交评论