当前位置: 首页 > news >正文

无锡软件网站开发公司高报师培训机构排名

无锡软件网站开发公司,高报师培训机构排名,ecshop 手机网站,wordpress点击复制前置知识:RNN,Attention机制 在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attent…

前置知识:RNN,Attention机制

在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention机制发生在Target的元素和Source中的所有元素之间。

Self-Attention是在Source内部元素或者Target内部元素之间发生的Attention机制,也可以理解为Target=Source这种特殊情况下的注意力计算机制,相当于是Query=Key=Value,计算过程与Attention一样。

作用

Self-Attention模型可以理解为对RNN的替代,有着以下两个作用:

  • 引入Self-Attention后会更容易捕获句子中长距离的相互依赖的特征。Self-Attention在计算过程中会直接将句子中任意两个单词的联系通过一个计算步骤直接联系起来,所以远距离依赖特征之间的距离被极大缩短,有利于有效地利用这些特征。

  • Self Attention对于增加计算的并行性也有直接帮助作用。正好弥补了attention机制的两个缺点,这就是为何Self Attention逐渐被广泛使用的主要原因。

对于计算并行性的分析

Self-Attention使得Attention模型满足:
Attention(Q,K,V)=softmax(\frac {QK^T}{\sqrt{d_k}})V
其中:

  • dk是Q和K的维度(矩阵中向量的个数,即列数)

对于位置信息的分析

这个位置信息ei不是学出来的,在paper里,是人手设置出来的,每个位置都不一样,代表在第几个positon。

我们构造一个p向量,这是一个one-hot向量,只有某一维为1,代表这个单元是第几个位置。

P_i=(0,...,0,1,0,...,0)

我们和x进行拼接再进行w的运算得到a,它又等价于右边的公式,相当于ai+ei:

http://www.dinnco.com/news/71287.html

相关文章:

  • 网站建设到运营需要多少钱竞价托管外包费用
  • 51传奇网页游戏合肥seo搜索优化
  • 科技有限公司可以做网站建设吗?黑科技引流推广神器
  • wordpress微信网站模板外贸平台自建站
  • 做网站好的网站建设公司客户管理系统
  • 栾城哪家公司做网站推广小程序
  • springboot企业网站开发泰州seo网络公司
  • 广东深圳住房和城乡建设部网站免费seo关键词优化方案
  • 开个小网站要怎么做智慧软文网站
  • php语言做购物网站推广赚钱平台
  • 怎么用手机做网站网络品牌营销
  • 苏宁易购网站建设情况成都网站推广
  • 购物网站后台好管理吗长沙网络公关公司
  • 成熟网站开发联系电话seo优化多久能上排名
  • 烟台网站建设哪家好热搜词工具
  • php做网站毕设答辩问什么重庆网站seo服务
  • 网站平台建设实训心得体会百度开户资质
  • 做门户网站开发的技术四川seo推广
  • 展示网站建设价格制作一个简单的html网页
  • 云数据库可以做网站吗软件开发外包平台
  • 电子商务网站建设的规划书百度搜索引擎推广
  • 建网站中企动力最行app拉新平台哪个好佣金高
  • 做美食网站的图片素材网络销售是做什么的
  • 有代源码怎么做自己网站中国十大seo
  • 烟台网站建设加盟seo工作是什么意思
  • 网站开发做原型吗人力资源培训网
  • 网站建设面临的困难螺蛳粉营销策划方案
  • 手机编程软件哪个好网站关键词优化的价格
  • 做业务的网站怎么上百度搜索
  • 太原做网站要多少钱呢广州短视频代运营