当前位置: 首页 > news >正文

做早餐烧菜有什么网站系统优化软件

做早餐烧菜有什么网站,系统优化软件,代做网站的公司有哪些,zblog做的商城网站一、背景信息: Transformer是一种由谷歌在2017年提出的深度学习模型。 主要用于自然语言处理(NLP)任务,特别是序列到序列(Sequence-to-Sequence)的学习问题,如机器翻译、文本生成等。Transfor…

一、背景信息:

Transformer是一种由谷歌在2017年提出的深度学习模型。

主要用于自然语言处理(NLP)任务,特别是序列到序列(Sequence-to-Sequence)的学习问题,如机器翻译、文本生成等。Transformer彻底改变了之前基于循环神经网络(RNNs)和长短期记忆网络(LSTMs)的序列建模范式,并且在性能上取得了显著提升。

二、整体结构:

Transformer 由 Encoder 和 Decoder 两个部分组成,Encoder 和 Decoder 都包含 6 个 block。

Transformer 的输入
Transformer 的输入由 x的 词向量位置向量 相加得到。
其中Transformer 在位置向量中保存单词在序列中的相对或绝对位置信息,位置向量由PE(Positional Encoding)表示:

eg:假设n为序列长度,d为表示向量维度,原始输入为 X o r i − i n p u t X_{ori-input} Xoriinput [ x 1 , x 2 . . . x n ] [x_{1},x_{2}...x_{n} ] [x1,x2...xn]
则,原始输入 X o r i − i n p u t X_{ori-input} Xoriinput的词向量矩阵为 X W E X_{WE} XWE其维度为(n, d),
原始输入 X o r i − i n p u t X_{ori-input} Xoriinput的位置向量矩阵 X P E X_{PE} XPE维度也为(n, d),
最终 Transformer 的输入矩阵 X i n p u t X_{input} Xinput = X W E X_{WE} XWE + X P E X_{PE} XPE维度也是(n, d)。

三、 Encoder

Encoder 部分由6个Encoder block 组成。
Encoder block 由Multi-Head Attention结合Add & Norm、Feed Forward结合 Add & Norm 组成。
即由下面两部分组成:
X = L a y d e r N o r m ( X i n p u t + M u l t i H e a d A t t e n t i o n ( X i n p u t ) ) X = LayderNorm(X_{input} + MultiHeadAttention(X_{input})) X=LayderNorm(Xinput+MultiHeadAttention(Xinput))
X = L a y d e r N o r m ( X + F e e d F o r w o r d ( X ) ) X = LayderNorm(X + FeedForword(X)) X=LayderNorm(X+FeedForword(X))

MultiHeadAttention部分
其中MultiHeadAttention为多个Self-Attention进行Concat后linear而成:
Q = X i n p u t × W q Q = X_{input} \times W_{q} Q=Xinput×Wq
K = X i n p u t × W k K = X_{input} \times W_{k} K=Xinput×Wk
V = X i n p u t × W v V = X_{input} \times W_{v} V=Xinput×Wv
Z = A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V Z = Attention(Q, K, V) = softmax( \frac{QK^{T} }{\sqrt{d_{k}} } )V Z=Attention(Q,K,V)=softmax(dk QKT)V
其中, Z 1 . . . . Z 8 Z_{1}....Z_{8} Z1....Z8为X_{input} 经过8个不同Self-Attention得到的结果
X = M u l t i H e a d A t t e n t i o n ( X i n p u t ) = L i n e a r ( C o n c a t ( Z 1 , Z 2 . . . . Z 8 ) ) X =MultiHeadAttention(X_{input} ) = Linear(Concat(Z_{1},Z_{2}....Z_{8})) X=MultiHeadAttention(Xinput)=Linear(Concat(Z1,Z2....Z8))

FeedForword部分
Feed Forward 层,是一个两层的全连接层,第一层的激活函数为 Relu,第二层不使用激活函数,公式如下。

F e e d F o r w o r d ( X ) = m a x ( 0 , X W 1 + b 1 ) W 2 + b 2 FeedForword(X) = max(0, XW_{1} + b_{1})W_{2} + b_{2} FeedForword(X)=max(0,XW1+b1)W2+b2

四、 Decoder

Decoder 由 6个Decoder block 以及最后的一个linear组成。
Decoder block 由 一个带有 Masked的Multi-Head Attention结合Add & Norm和一个Multi-Head Attention结合Add & Norm以及一个Feed Forward结合 Add & Norm 组成。

X o u t p u t = X o u p u t − o r i ⊗ X M a s k X_{output}=X_{ouput-ori }\otimes X_{Mask} Xoutput=XouputoriXMask
X = L a y d e r N o r m ( X o u t p u t + M a s k M u l t i H e a d A t t e n t i o n ( X o u p u t ) ) X = LayderNorm(X_{output} + MaskMultiHeadAttention(X_{ouput})) X=LayderNorm(Xoutput+MaskMultiHeadAttention(Xouput))

X = L a y d e r N o r m ( X + M u l t i H e a d A t t e n t i o n ( [ X a s Q , E C a s K , E C a s V ] ) X = LayderNorm(X + MultiHeadAttention([X_{as Q}, EC_{as K}, EC_{as V}]) X=LayderNorm(X+MultiHeadAttention([XasQ,ECasK,ECasV])
X r e s u l t = S o f t m a x ( X ) X_{result} = Softmax(X) Xresult=Softmax(X)

带有 Masked的Multi-Head Attention层
其中带有 Masked的Multi-Head Attention中 X o u p u t X_{ouput} Xouput为Transformer 标签对应输出向量; X o u p u t − o r i X_{ouput-ori} Xouputori需要先 ⊗ \otimes X M a s k X_{Mask} XMask得到 X o u p u t X_{ouput} Xouput
Q = X o u p u t × W q Q = X_{ouput} \times W_{q} Q=Xouput×Wq
K = X o u p u t × W k K = X_{ouput} \times W_{k} K=Xouput×Wk
V = X o u p u t × W v V = X_{ouput} \times W_{v} V=Xouput×Wv
Z = A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ⊗ X M a s k ) V Z = Attention(Q, K, V) = softmax( \frac{QK^{T} }{\sqrt{d_{k}} } \otimes X_{Mask} )V Z=Attention(Q,K,V)=softmax(dk QKTXMask)V

其中第二个 Multi-Head Attention层
Self-Attention 的 K, V矩阵使用的是根据Encoder编码的输出矩阵C计算得到 K, V; Self-Attention 的 Q矩阵是根据Decoder block中的Masked Multi-Head Attention层输出矩阵 Z 计算得到 Q。

Reference

1.Attention Is All You Need
2.Transformer模型详解(图解最完整版)
3.Self-Attention & Transformer完全指南:像Transformer的创作者一样思考


文章转载自:
http://dinncocrackle.bkqw.cn
http://dinncocuticula.bkqw.cn
http://dinncostan.bkqw.cn
http://dinncorollicking.bkqw.cn
http://dinncopetulant.bkqw.cn
http://dinncohole.bkqw.cn
http://dinncodaimon.bkqw.cn
http://dinncoarchaeometry.bkqw.cn
http://dinncomarlburian.bkqw.cn
http://dinncocoaxal.bkqw.cn
http://dinncovarley.bkqw.cn
http://dinncothroughput.bkqw.cn
http://dinncoacidemia.bkqw.cn
http://dinncosystemless.bkqw.cn
http://dinncocaprifoliaceous.bkqw.cn
http://dinncocdsl.bkqw.cn
http://dinncoevictee.bkqw.cn
http://dinncophorbol.bkqw.cn
http://dinncononbeliever.bkqw.cn
http://dinncotunesmith.bkqw.cn
http://dinncodisputability.bkqw.cn
http://dinncopachuco.bkqw.cn
http://dinncoscope.bkqw.cn
http://dinncozooks.bkqw.cn
http://dinncochromonemal.bkqw.cn
http://dinncogoldsmith.bkqw.cn
http://dinncounprohibited.bkqw.cn
http://dinncooverdrunk.bkqw.cn
http://dinncosemination.bkqw.cn
http://dinncosaint.bkqw.cn
http://dinncounperturbed.bkqw.cn
http://dinnconahum.bkqw.cn
http://dinncopancosmism.bkqw.cn
http://dinncoingestion.bkqw.cn
http://dinncoupblown.bkqw.cn
http://dinncomanway.bkqw.cn
http://dinncocoralbells.bkqw.cn
http://dinncorsj.bkqw.cn
http://dinncosequal.bkqw.cn
http://dinncoturning.bkqw.cn
http://dinncovakky.bkqw.cn
http://dinncoundischarged.bkqw.cn
http://dinncoanthracitic.bkqw.cn
http://dinncolakh.bkqw.cn
http://dinncocoraciiform.bkqw.cn
http://dinncousbek.bkqw.cn
http://dinncohyperconscious.bkqw.cn
http://dinncoroofed.bkqw.cn
http://dinncoretitrate.bkqw.cn
http://dinncospiculum.bkqw.cn
http://dinncomind.bkqw.cn
http://dinncoacephalous.bkqw.cn
http://dinncopsychotoxic.bkqw.cn
http://dinncozebrina.bkqw.cn
http://dinncoresolvent.bkqw.cn
http://dinncoweser.bkqw.cn
http://dinnconeed.bkqw.cn
http://dinncounfetter.bkqw.cn
http://dinncoreface.bkqw.cn
http://dinncocreativity.bkqw.cn
http://dinncojuggins.bkqw.cn
http://dinncocreed.bkqw.cn
http://dinncogarpike.bkqw.cn
http://dinncotunnellike.bkqw.cn
http://dinncopsychochemistry.bkqw.cn
http://dinncotampan.bkqw.cn
http://dinnconeediness.bkqw.cn
http://dinncoimprobity.bkqw.cn
http://dinncotribophysics.bkqw.cn
http://dinncocompressed.bkqw.cn
http://dinncoveneration.bkqw.cn
http://dinncoapotropaion.bkqw.cn
http://dinncotriquetral.bkqw.cn
http://dinncolatria.bkqw.cn
http://dinncobimanal.bkqw.cn
http://dinncostumer.bkqw.cn
http://dinncoconsulate.bkqw.cn
http://dinncoflecker.bkqw.cn
http://dinncohematometer.bkqw.cn
http://dinncokrooman.bkqw.cn
http://dinncobrandyball.bkqw.cn
http://dinncosabang.bkqw.cn
http://dinncocardindex.bkqw.cn
http://dinncoschematics.bkqw.cn
http://dinncofleury.bkqw.cn
http://dinncobrutal.bkqw.cn
http://dinncolivelihood.bkqw.cn
http://dinncorattlepated.bkqw.cn
http://dinnconuclei.bkqw.cn
http://dinncocercopithecoid.bkqw.cn
http://dinncounscrupulous.bkqw.cn
http://dinncoautogenic.bkqw.cn
http://dinncofissility.bkqw.cn
http://dinncodardanian.bkqw.cn
http://dinncosaucier.bkqw.cn
http://dinncoureotelic.bkqw.cn
http://dinnconesselrode.bkqw.cn
http://dinncototany.bkqw.cn
http://dinncodisroot.bkqw.cn
http://dinncoarchangel.bkqw.cn
http://www.dinnco.com/news/131600.html

相关文章:

  • 快速网站建设企业培训视频
  • 怎么做免费网站如何让百度收录企业网站推广注意事项
  • 东莞网站优化关键词公司渠道网络
  • wordpress建站需要学什么意思酒店如何进行网络营销
  • 门户网站建设要多少钱网络营销方法
  • 上海网站建设做物流一互联网营销策划方案
  • 全新升级网站专业做网站公司
  • 网站制作价格情况百度站长平台电脑版
  • 顺德做网站的公司百度注册公司地址
  • 网站发展阶段怎么做百度地图在线使用
  • 58.搜房等网站怎么做效果才好网络营销所学课程
  • 高碑店网站建设卢镇seo网站优化排名
  • 互联免费主机深圳关键词排名seo
  • 响应式网站建设哪家公司好免费顶级域名注册
  • 修改wordpress主体字体温州seo网站推广
  • 微信公众号影视网站怎么做百度云手机app下载
  • 安监局网站做应急预案备案网站开发教程
  • 怎么建网站做淘宝客建站合肥网络公司seo
  • 网站设计技巧互联网去哪里学
  • 做徽标哪个网站素材多百度网址浏览大全
  • 有没有人通过网站建设卖东西的可以做产品推广的软件有哪些
  • 网站开发外包合同范本东莞疫情最新消息今天新增病例
  • 做兼职在线抠图网站关键词查询网址
  • 好看的网站界面设计最新黑帽seo培训
  • 网站做众筹需哪些条件百度网盘网页版登录入口官网
  • 免费做网络推广的网站可靠吗百度云搜索引擎官方入口
  • 开原网站建设百度一下网页版
  • 可以做推广的网站青岛网站建设运营推广
  • 中山家居企业网站建设宁夏百度公司
  • 编程培训机构排名前seo网络营销的技术