当前位置: 首页 > news >正文

黄埔网站建设设计宁波网站推广制作

黄埔网站建设设计,宁波网站推广制作,云县网站建设,用laravel做的网站目录 🍔 Self-attention的特点 🍔 Self-attention中的归一化概述 🍔 softmax的梯度变化 3.1 softmax函数的输入分布是如何影响输出的 3.2 softmax函数在反向传播的过程中是如何梯度求导的 3.3 softmax函数出现梯度消失现象的原因 &…

6122f3b5b5d5425b83bd1018bbe0f497.jpeg

目录

🍔 Self-attention的特点

🍔 Self-attention中的归一化概述

🍔 softmax的梯度变化

3.1 softmax函数的输入分布是如何影响输出的

3.2 softmax函数在反向传播的过程中是如何梯度求导的

3.3 softmax函数出现梯度消失现象的原因

🍔 维度与点积大小的关系

🍔 小结

6882c9d8e076472d8b71c956166ee9a4.gif

学习目标

🍀 掌握self-attention的机制和原理.

🍀 掌握为什么要使用三元组(Q, K, V)来计算self-attention.

🍀 理解softmax函数的输入是如何影响输出分布的.

🍀 理解softmax函数反向传播进行梯度求导的数学过程.

🍀 理解softmax函数出现梯度消失的原因.

🍀 理解self-attention计算规则中归一化的原因.

🍔 Self-attention的特点

self-attention是一种通过自身和自身进行关联的attention机制, 从而得到更好的representation来表达自身.

self-attention是attention机制的一种特殊情况,在self-attention中, Q=K=V, 序列中的每个单词(token)都和该序列中的其他所有单词(token)进行attention规则的计算.

attention机制计算的特点在于, 可以直接跨越一句话中不同距离的token, 可以远距离的学习到序列的知识依赖和语序结构.


32ce72b412cd42f5ba81b083c187a715.png

  • 从上图中可以看到, self-attention可以远距离的捕捉到语义层面的特征(its的指代对象是Law).

  • 应用传统的RNN, LSTM, 在获取长距离语义特征和结构特征的时候, 需要按照序列顺序依次计算, 距离越远的联系信息的损耗越大, 有效提取和捕获的可能性越小.

  • 但是应用self-attention时, 计算过程中会直接将句子中任意两个token的联系通过一个计算步骤直接联系起来,

关于self-attention为什么要使用(Q, K, V)三元组而不是其他形式:

  • 首先一条就是从分析的角度看, 查询Query是一条独立的序列信息, 通过关键词Key的提示作用, 得到最终语义的真实值Value表达, 数学意义更充分, 完备.
  • 这里不使用(K, V)或者(V)没有什么必须的理由, 也没有相关的论文来严格阐述比较试验的结果差异, 所以可以作为开放性问题未来去探索, 只要明确在经典self-attention实现中用的是三元组就好.

self-attention公式中的归一化有什么作用? 为什么要添加scaled?

🍔 Self-attention中的归一化概述

  • 训练上的意义: 随着词嵌入维度d_k的增大, q * k 点积后的结果也会增大, 在训练时会将softmax函数推入梯度非常小的区域, 可能出现梯度消失的现象, 造成模型收敛困难.

  • 数学上的意义: 假设q和k的统计变量是满足标准正态分布的独立随机变量, 意味着q和k满足均值为0, 方差为1. 那么q和k的点积结果就是均值为0, 方差为d_k, 为了抵消这种方差被放大d_k倍的影响, 在计算中主动将点积缩放1/sqrt(d_k), 这样点积后的结果依然满足均值为0, 方差为1.

🍔 softmax的梯度变化

这里我们分3个步骤来解释softmax的梯度问题:

  • 第一步: softmax函数的输入分布是如何影响输出的.
  • 第二步: softmax函数在反向传播的过程中是如何梯度求导的.
  • 第三步: softmax函数出现梯度消失现象的原因.

3.1 softmax函数的输入分布是如何影响输出的

  • 对于一个输入向量x, softmax函数将其做了一个归一化的映射, 首先通过自然底数e将输入元素之间的差距先"拉大", 然后再归一化为一个新的分布. 在这个过程中假设某个输入x中最大的元素下标是k, 如果输入的数量级变大(就是x中的每个分量绝对值都很大), 那么在数学上会造成y_k的值非常接近1.
  • 具体用一个例子来演示, 假设输入的向量x = [a, a, 2a], 那么随便给几个不同数量级的值来看看对y3产生的影响
a = 1时,   y3 = 0.5761168847658291
a = 10时,  y3 = 0.9999092083843412
a = 100时, y3 = 1.0
  • 采用一段实例代码将a在不同取值下, 对应的y3全部画出来, 以曲线的形式展示:
from math import exp
from matplotlib import pyplot as plt
import numpy as np 
f = lambda x: exp(x * 2) / (exp(x) + exp(x) + exp(x * 2))
x = np.linspace(0, 100, 100)
y_3 = [f(x_i) for x_i in x]
plt.plot(x, y_3)
plt.show()
  • 得到如下的曲线:


46e2ad761bf240b08bc04381a2e777eb.png

  • 从上图可以很清楚的看到输入元素的数量级对softmax最终的分布影响非常之大.

  • 结论: 在输入元素的数量级较大时, softmax函数几乎将全部的概率分布都分配给了最大值分量所对应的标签.

3.2 softmax函数在反向传播的过程中是如何梯度求导的

首先定义神经网络的输入和输出:

c62f68b527ad4d5bbc4ce183980d9f92.png

反向传播就是输出端的损失函数对输入端求偏导的过程, 这里要分两种情况, 第一种如下所示:

17fa769ec47f4c5dbb7f6292acdd3da3.png

第二种如下所示:

e8474e7b4c884235a8631a196caad5c2.png

经过对两种情况分别的求导计算, 可以得出最终的结论如下:

a05442354eaf419c9ab3ef864853be29.png

3.3 softmax函数出现梯度消失现象的原因

  • 根据第二步中softmax函数的求导结果, 可以将最终的结果以矩阵形式展开如下:

e475d8ca18c04f8f969f354d7f324c15.png

  • 根据第一步中的讨论结果, 当输入x的分量值较大时, softmax函数会将大部分概率分配给最大的元素, 假设最大元素是x1, 那么softmax的输出分布将产生一个接近one-hot的结果张量y_ = [1, 0, 0,..., 0], 此时结果矩阵变为:

78b1895b42ea4e2c974bbdca85c53f08.png

  • 结论: 综上可以得出, 所有的梯度都消失为0(接近于0), 参数几乎无法更新, 模型收敛困难.

🍔 维度与点积大小的关系

  • 针对为什么维度会影响点积的大小, 原始论文中有这样的一点解释如下:

To illustrate why the dot products get large, assume that the components of q and k 
are independent random variables with mean 0 and variance 1. Then their doct product,
q*k = (q1k1+q2k2+......+q(d_k)k(d_k)), has mean 0 and variance d_k.
 

  • 我们分两步对其进行一个推导, 首先就是假设向量q和k的各个分量是相互独立的随机变量, X = q_i, Y = k_i, X和Y各自有d_k个分量, 也就是向量的维度等于d_k, 有E(X) = E(Y) = 0, 以及D(X) = D(Y) = 1.

  • 可以得到E(XY) = E(X)E(Y) = 0 * 0 = 0

  • 同理, 对于D(XY)推导如下:

d5a04ac465ee4584b1c5bbc55ebc2101.png

  • 根据期望和方差的性质, 对于互相独立的变量满足下式:

c2b6b813dddf4f39a28d372c53b448d8.png

  • 根据上面的公式, 可以很轻松的得出q*k的均值为E(qk) = 0, D(qk) = d_k.

  • 所以方差越大, 对应的qk的点积就越大, 这样softmax的输出分布就会更偏向最大值所在的分量.

  • 一个技巧就是将点积除以sqrt(d_k), 将方差在数学上重新"拉回1", 如下所示:

2e0bda22f8214ba180dc18baf9443a59.png

  • 最终的结论: 通过数学上的技巧将方差控制在1, 也就有效的控制了点积结果的发散, 也就控制了对应的梯度消失的问题!

🍔 小结

  • self-attention机制的重点是使用三元组(Q, K, V)参与规则运算, 这里面Q=K=V.
  • self-attention最大的优势是可以方便有效的提取远距离依赖的特征和结构信息, 不必向RNN那样依次计算产生传递损耗.
  • 关于self-attention采用三元组的原因, 经典实现的方式数学意义明确, 理由充分, 至于其他方式的可行性暂时没有论文做充分的对比试验研究.
  • 学习了softmax函数的输入是如何影响输出分布的.
    • softmax函数本质是对输入的数据分布做一次归一化处理, 但是输入元素的数量级对softmax最终的分布影响非常之大.
    • 在输入元素的数量级较大时, softmax函数几乎将全部的概率分布都分配给了最大值分量所对应的标签.
  • 学习了softmax函数在反向传播的过程中是如何梯度求导的.

    • 具体的推导过程见讲义正文部分, 注意要分两种情况讨论, 分别处理.
  • 学习了softmax函数出现梯度消失现象的原因.

    • 结合第一步, 第二步的结论, 可以很清楚的看到最终的梯度矩阵接近于零矩阵, 这样在进行参数更新的时候就会产生梯度消失现象.
  • 学习了维度和点积大小的关系推导.

    • 通过期望和方差的推导理解了为什么点积会造成方差变大.
    • 理解了通过数学技巧除以sqrt(d_k)就可以让方差恢复成1.

eeb8e44aa06c41ccb301fe275994b6c9.gif82fe0d9e7075453f8c62e3f23bb8a185.jpeg 

💘若能为您的学习之旅添一丝光亮,不胜荣幸💘

🐼期待您的宝贵意见,让我们共同进步共同成长🐼


文章转载自:
http://dinncohypodermal.bpmz.cn
http://dinncooversimplify.bpmz.cn
http://dinncontsc.bpmz.cn
http://dinncomultiplier.bpmz.cn
http://dinncoeolith.bpmz.cn
http://dinncotableware.bpmz.cn
http://dinncobuss.bpmz.cn
http://dinncooversee.bpmz.cn
http://dinncoichthyofauna.bpmz.cn
http://dinncodisequilibrate.bpmz.cn
http://dinncoceresin.bpmz.cn
http://dinncoperversity.bpmz.cn
http://dinncocorporately.bpmz.cn
http://dinncorazorjob.bpmz.cn
http://dinnconick.bpmz.cn
http://dinncothema.bpmz.cn
http://dinncoslippy.bpmz.cn
http://dinncoapra.bpmz.cn
http://dinncosolemnity.bpmz.cn
http://dinncofidicinales.bpmz.cn
http://dinncozealousness.bpmz.cn
http://dinncorouteway.bpmz.cn
http://dinncosaviour.bpmz.cn
http://dinncosinicism.bpmz.cn
http://dinncoradioteletype.bpmz.cn
http://dinncopowerword.bpmz.cn
http://dinnconod.bpmz.cn
http://dinncofibrilliform.bpmz.cn
http://dinncorecanalization.bpmz.cn
http://dinncoairburst.bpmz.cn
http://dinncomicrolite.bpmz.cn
http://dinncopostpartum.bpmz.cn
http://dinncocretinism.bpmz.cn
http://dinncopledgee.bpmz.cn
http://dinnconucleolate.bpmz.cn
http://dinncocruellie.bpmz.cn
http://dinncoantipyrin.bpmz.cn
http://dinncorecta.bpmz.cn
http://dinncoisanthous.bpmz.cn
http://dinncotrimly.bpmz.cn
http://dinnconoshery.bpmz.cn
http://dinncogcm.bpmz.cn
http://dinncoanger.bpmz.cn
http://dinncolactam.bpmz.cn
http://dinncouglify.bpmz.cn
http://dinncointerfinger.bpmz.cn
http://dinncodiplomatise.bpmz.cn
http://dinncocomprehendingly.bpmz.cn
http://dinncokep.bpmz.cn
http://dinncodecomposed.bpmz.cn
http://dinncologania.bpmz.cn
http://dinncoclammily.bpmz.cn
http://dinncopaintress.bpmz.cn
http://dinncodoura.bpmz.cn
http://dinncovagotropic.bpmz.cn
http://dinncoreconcilability.bpmz.cn
http://dinncoamative.bpmz.cn
http://dinnconatantly.bpmz.cn
http://dinncocarvacrol.bpmz.cn
http://dinncomachination.bpmz.cn
http://dinncoemissivity.bpmz.cn
http://dinncoupanishad.bpmz.cn
http://dinncowormlike.bpmz.cn
http://dinncotruceless.bpmz.cn
http://dinncofluent.bpmz.cn
http://dinncokpc.bpmz.cn
http://dinncoaccoutrements.bpmz.cn
http://dinncokafir.bpmz.cn
http://dinncosensitometer.bpmz.cn
http://dinncobullshot.bpmz.cn
http://dinncofeather.bpmz.cn
http://dinncocommunize.bpmz.cn
http://dinncobutane.bpmz.cn
http://dinncosubmergible.bpmz.cn
http://dinncomenace.bpmz.cn
http://dinncogeometricism.bpmz.cn
http://dinncopinealoma.bpmz.cn
http://dinncoquaternate.bpmz.cn
http://dinncoxylography.bpmz.cn
http://dinncoenvenomization.bpmz.cn
http://dinncoobsolescence.bpmz.cn
http://dinncoresupply.bpmz.cn
http://dinncosuperhighway.bpmz.cn
http://dinncolacunal.bpmz.cn
http://dinncomcmlxxxiv.bpmz.cn
http://dinncoshotgun.bpmz.cn
http://dinncosliprail.bpmz.cn
http://dinncoeuchre.bpmz.cn
http://dinncogirlish.bpmz.cn
http://dinncopact.bpmz.cn
http://dinncojennie.bpmz.cn
http://dinncogent.bpmz.cn
http://dinncosyphilotherapy.bpmz.cn
http://dinnconobbut.bpmz.cn
http://dinncocorsak.bpmz.cn
http://dinncopleasureless.bpmz.cn
http://dinncosemainier.bpmz.cn
http://dinncotoll.bpmz.cn
http://dinncophotochromy.bpmz.cn
http://dinncopvm.bpmz.cn
http://www.dinnco.com/news/102115.html

相关文章:

  • 工会网站建设请示四年级说新闻2023
  • 深圳微商城网站设计多少钱外贸建站与推广
  • 邢台网站123百度今日小说搜索风云榜
  • title 芜湖网站制作网络推广运营推广
  • 重庆购务网站建设怎么下载有风险的软件
  • 南阳网站建设.com销售网站有哪些
  • 做跳转链接到自己的网站北京百度推广代理公司
  • 电子商务网站建设移动电商开发推广形式
  • 怎么黑网站的步骤上海建站seo
  • 贵阳网站建设方案无锡谷歌优化
  • 平罗门户网站建设今日要闻10条
  • 广东网站建设类公司线上推广渠道
  • wordpress 快照被劫持济南专业seo推广公司
  • 网站欢迎页面怎么做杭州seo招聘
  • 莱芜都市网二手车青岛seo整站优化哪家专业
  • 银川网站建设公司免费推广网站
  • 福田网站建设哪家便宜google安卓手机下载
  • 重庆市建设工程造价管理总站竞价开户推广
  • 如何建设淘宝网站网络销售模式有哪些
  • 适合学生做网页练习的网站seo关键词排名系统
  • 商城网站建设是 什么百度一下你就知道首页官网
  • vi设计模板源文件短视频关键词优化
  • 做设计在哪个网站接单公司网站模板设计
  • 做的不错的网站什么平台可以打广告做宣传
  • 寿光做网站的公司手机搜索引擎
  • 自己如何建设企业网站谷歌代理
  • 网站验证码文件网站统计分析平台
  • 旅游攻略的网站怎么做网游百度搜索风云榜
  • wordpress 后台地址加www 打不开手机优化软件下载
  • 狠狠做新网站网站建设关键词排名