当前位置: 首页 > news >正文

学校网站建设宗旨百度写作助手

学校网站建设宗旨,百度写作助手,网站空间服务器排名,个人房屋做民宿在哪个网站目录 🍔 LSTM介绍 🍔 LSTM的内部结构图 2.1 LSTM结构分析 2.2 Bi-LSTM介绍 2.3 使用Pytorch构建LSTM模型 2.4 LSTM优缺点 🍔 小结 学习目标 🍀 了解LSTM内部结构及计算公式. 🍀 掌握Pytorch中LSTM工具的使用. &…

79617712545a43a7ab2ed6e0aa3fc852.png

 

目录

🍔 LSTM介绍

🍔 LSTM的内部结构图

2.1 LSTM结构分析

2.2 Bi-LSTM介绍

2.3 使用Pytorch构建LSTM模型

2.4 LSTM优缺点

🍔 小结


 

学习目标

🍀 了解LSTM内部结构及计算公式.

🍀 掌握Pytorch中LSTM工具的使用.

🍀 了解LSTM的优势与缺点.

🍔 LSTM介绍

LSTM(Long Short-Term Memory)也称长短时记忆结构, 它是传统RNN的变体, 与经典RNN相比能够有效捕捉长序列之间的语义关联, 缓解梯度消失或爆炸现象. 同时LSTM的结构更复杂,。

🐼 它的核心结构可以分为四个部分去解析:

  • 遗忘门
  • 输入门
  • 细胞状态
  • 输出门

🍔 LSTM的内部结构图

2.1 LSTM结构分析


ec4911a51b5a4a34ac3d4f7c2fd019fa.png

 

  • 结构解释图:


adee0529438849928350f3b75e035caf.png

 

  • 遗忘门部分结构图与计算公式:


6243663339f74ef2a35a374b02b7ddf8.png

 

  • 遗忘门结构分析:

    • 与传统RNN的内部结构计算非常相似, 首先将当前时间步输入x(t)与上一个时间步隐含状态h(t-1)拼接, 得到[x(t), h(t-1)], 然后通过一个全连接层做变换, 最后通过sigmoid函数进行激活得到f(t), 我们可以将f(t)看作是门值, 好比一扇门开合的大小程度, 门值都将作用在通过该扇门的张量, 遗忘门门值将作用的上一层的细胞状态上, 代表遗忘过去的多少信息, 又因为遗忘门门值是由x(t), h(t-1)计算得来的, 因此整个公式意味着根据当前时间步输入和上一个时间步隐含状态h(t-1)来决定遗忘多少上一层的细胞状态所携带的过往信息.
  • 遗忘门内部结构过程演示:


679a3934de39484580301d7c986412e1.gif

 

  • 激活函数sigmiod的作用:
    • 用于帮助调节流经网络的值, sigmoid函数将值压缩在0和1之间.


d2f9ca1a3ff743a8bb21ab2ff2600d70.gif

 

  • 输入门部分结构图与计算公式:


7c2153ab117b4d8b99d488f22f0c22e9.png

 

  • 输入门结构分析:

    • 我们看到输入门的计算公式有两个, 第一个就是产生输入门门值的公式, 它和遗忘门公式几乎相同, 区别只是在于它们之后要作用的目标上. 这个公式意味着输入信息有多少需要进行过滤. 输入门的第二个公式是与传统RNN的内部结构计算相同. 对于LSTM来讲, 它得到的是当前的细胞状态, 而不是像经典RNN一样得到的是隐含状态.
  • 输入门内部结构过程演示:


81928f2b58774019a39121090539ee3b.gif

 

  • 细胞状态更新图与计算公式:


6776cab124e54f3c834202246dd1a9c0.png

 

  • 细胞状态更新分析:

    • 细胞更新的结构与计算公式非常容易理解, 这里没有全连接层, 只是将刚刚得到的遗忘门门值与上一个时间步得到的C(t-1)相乘, 再加上输入门门值与当前时间步得到的未更新C(t)相乘的结果. 最终得到更新后的C(t)作为下一个时间步输入的一部分. 整个细胞状态更新过程就是对遗忘门和输入门的应用.
  • 细胞状态更新过程演示:


4dcefabe200844c688627ef46fe5a0ac.gif

 

  • 输出门部分结构图与计算公式:


2677e2f6ee25486c8e89e787a072d1b2.png

 

  • 输出门结构分析:

    • 输出门部分的公式也是两个, 第一个即是计算输出门的门值, 它和遗忘门,输入门计算方式相同. 第二个即是使用这个门值产生隐含状态h(t), 他将作用在更新后的细胞状态C(t)上, 并做tanh激活, 最终得到h(t)作为下一时间步输入的一部分. 整个输出门的过程, 就是为了产生隐含状态h(t).
  • 输出门内部结构过程演示:


8e67f3cf4738477f8bb5a0a802a1507c.gif

 

2.2 Bi-LSTM介绍

Bi-LSTM即双向LSTM, 它没有改变LSTM本身任何的内部结构, 只是将LSTM应用两次且方向不同, 再将两次得到的LSTM结果进行拼接作为最终输出.


afa1194a0b314631a0e1bfd578c24e49.png

  • Bi-LSTM结构分析:
    • 我们看到图中对"我爱中国"这句话或者叫这个输入序列, 进行了从左到右和从右到左两次LSTM处理, 将得到的结果张量进行了拼接作为最终输出. 这种结构能够捕捉语言语法中一些特定的前置或后置特征, 增强语义关联,但是模型参数和计算复杂度也随之增加了一倍, 一般需要对语料和计算资源进行评估后决定是否使用该结构.

2.3 使用Pytorch构建LSTM模型

  • 位置: 在torch.nn工具包之中, 通过torch.nn.LSTM可调用.

  • nn.LSTM类初始化主要参数解释:

    • input_size: 输入张量x中特征维度的大小.
    • hidden_size: 隐层张量h中特征维度的大小.
    • num_layers: 隐含层的数量.
    • bidirectional: 是否选择使用双向LSTM, 如果为True, 则使用; 默认不使用.
  • nn.LSTM类实例化对象主要参数解释:

    • input: 输入张量x.
    • h0: 初始化的隐层张量h.
    • c0: 初始化的细胞状态张量c.
  • nn.LSTM使用示例:

# 定义LSTM的参数含义: (input_size, hidden_size, num_layers)
# 定义输入张量的参数含义: (sequence_length, batch_size, input_size)
# 定义隐藏层初始张量和细胞初始状态张量的参数含义:
# (num_layers * num_directions, batch_size, hidden_size)>>> import torch.nn as nn
>>> import torch
>>> rnn = nn.LSTM(5, 6, 2)
>>> input = torch.randn(1, 3, 5)
>>> h0 = torch.randn(2, 3, 6)
>>> c0 = torch.randn(2, 3, 6)
>>> output, (hn, cn) = rnn(input, (h0, c0))
>>> output
tensor([[[ 0.0447, -0.0335,  0.1454,  0.0438,  0.0865,  0.0416],[ 0.0105,  0.1923,  0.5507, -0.1742,  0.1569, -0.0548],[-0.1186,  0.1835, -0.0022, -0.1388, -0.0877, -0.4007]]],grad_fn=<StackBackward>)
>>> hn
tensor([[[ 0.4647, -0.2364,  0.0645, -0.3996, -0.0500, -0.0152],[ 0.3852,  0.0704,  0.2103, -0.2524,  0.0243,  0.0477],[ 0.2571,  0.0608,  0.2322,  0.1815, -0.0513, -0.0291]],[[ 0.0447, -0.0335,  0.1454,  0.0438,  0.0865,  0.0416],[ 0.0105,  0.1923,  0.5507, -0.1742,  0.1569, -0.0548],[-0.1186,  0.1835, -0.0022, -0.1388, -0.0877, -0.4007]]],grad_fn=<StackBackward>)
>>> cn
tensor([[[ 0.8083, -0.5500,  0.1009, -0.5806, -0.0668, -0.1161],[ 0.7438,  0.0957,  0.5509, -0.7725,  0.0824,  0.0626],[ 0.3131,  0.0920,  0.8359,  0.9187, -0.4826, -0.0717]],[[ 0.1240, -0.0526,  0.3035,  0.1099,  0.5915,  0.0828],[ 0.0203,  0.8367,  0.9832, -0.4454,  0.3917, -0.1983],[-0.2976,  0.7764, -0.0074, -0.1965, -0.1343, -0.6683]]],grad_fn=<StackBackward>)

2.4 LSTM优缺点

  • LSTM优势:

    LSTM的门结构能够有效减缓长序列问题中可能出现的梯度消失或爆炸, 虽然并不能杜绝这种现象, 但在更长的序列问题上表现优于传统RNN.

  • LSTM缺点:

    由于内部结构相对较复杂, 因此训练效率在同等算力下较传统RNN低很多.

🍔 小结

  • LSTM(Long Short-Term Memory)也称长短时记忆结构, 它是传统RNN的变体, 与经典RNN相比能够有效捕捉长序列之间的语义关联, 缓解梯度消失或爆炸现象. 同时LSTM的结构更复杂, 它的核心结构可以分为四个部分去解析:

    • 遗忘门
    • 输入门
    • 输出门
    • 细胞状态
  • 遗忘门结构分析:

    与传统RNN的内部结构计算非常相似, 首先将当前时间步输入x(t)与上一个时间步隐含状态h(t-1)拼接, 得到[x(t), h(t-1)], 然后通过一个全连接层做变换, 最后通过sigmoid函数进行激活得到f(t), 我们可以将f(t)看作是门值, 好比一扇门开合的大小程度, 门值都将作用在通过该扇门的张量, 遗忘门门值将作用的上一层的细胞状态上, 代表遗忘过去的多少信息, 又因为遗忘门门值是由x(t), h(t-1)计算得来的, 因此整个公式意味着根据当前时间步输入和上一个时间步隐含状态h(t-1)来决定遗忘多少上一层的细胞状态所携带的过往信息.

  • 输入门结构分析:

    我们看到输入门的计算公式有两个, 第一个就是产生输入门门值的公式, 它和遗忘门公式几乎相同, 区别只是在于它们之后要作用的目标上. 这个公式意味着输入信息有多少需要进行过滤. 输入门的第二个公式是与传统RNN的内部结构计算相同. 对于LSTM来讲, 它得到的是当前的细胞状态, 而不是像经典RNN一样得到的是隐含状态.

  • 细胞状态更新分析:

    细胞更新的结构与计算公式非常容易理解, 这里没有全连接层, 只是将刚刚得到的遗忘门门值与上一个时间步得到的C(t-1)相乘, 再加上输入门门值与当前时间步得到的未更新C(t)相乘的结果. 最终得到更新后的C(t)作为下一个时间步输入的一部分. 整个细胞状态更新过程就是对遗忘门和输入门的应用.

  • 输出门结构分析:

    输出门部分的公式也是两个, 第一个即是计算输出门的门值, 它和遗忘门,输入门计算方式相同. 第二个即是使用这个门值产生隐含状态h(t), 他将作用在更新后的细胞状态C(t)上, 并做tanh激活, 最终得到h(t)作为下一时间步输入的一部分. 整个输出门的过程, 就是为了产生隐含状态h(t).

  • 什么是Bi-LSTM ?

    Bi-LSTM即双向LSTM, 它没有改变LSTM本身任何的内部结构, 只是将LSTM应用两次且方向不同, 再将两次得到的LSTM结果进行拼接作为最终输出.

  • Pytorch中LSTM工具的使用:

    位置: 在torch.nn工具包之中, 通过torch.nn.LSTM可调用.

  • LSTM优势:

    LSTM的门结构能够有效减缓长序列问题中可能出现的梯度消失或爆炸, 虽然并不能杜绝这种现象, 但在更长的序列问题上表现优于传统RNN.

  • LSTM缺点:

    由于内部结构相对较复杂, 因此训练效率在同等算力下较传统RNN低很多.

29b3edc74fcc47a2a588e7a1bfd9c802.jpeg

 

 


文章转载自:
http://dinncohydracid.ssfq.cn
http://dinncoargand.ssfq.cn
http://dinncounwell.ssfq.cn
http://dinncostratigraphical.ssfq.cn
http://dinncofortuna.ssfq.cn
http://dinncosebum.ssfq.cn
http://dinncochalaza.ssfq.cn
http://dinncoswitzer.ssfq.cn
http://dinncoyirr.ssfq.cn
http://dinncochary.ssfq.cn
http://dinncosprinkle.ssfq.cn
http://dinncoabolishment.ssfq.cn
http://dinncotabetic.ssfq.cn
http://dinncobioinstrumentation.ssfq.cn
http://dinncoyatata.ssfq.cn
http://dinncoprongy.ssfq.cn
http://dinncospanking.ssfq.cn
http://dinncoscattered.ssfq.cn
http://dinncoamphicar.ssfq.cn
http://dinncobibliopegistic.ssfq.cn
http://dinncoressentiment.ssfq.cn
http://dinncohollow.ssfq.cn
http://dinncoutilisable.ssfq.cn
http://dinncopreviously.ssfq.cn
http://dinncoshoreline.ssfq.cn
http://dinncoworksite.ssfq.cn
http://dinncoarchenemy.ssfq.cn
http://dinncooceanology.ssfq.cn
http://dinncocircumambiency.ssfq.cn
http://dinncothrombose.ssfq.cn
http://dinncodiaphragm.ssfq.cn
http://dinncozygosis.ssfq.cn
http://dinncocondonation.ssfq.cn
http://dinncoodontology.ssfq.cn
http://dinncosingleness.ssfq.cn
http://dinncochoko.ssfq.cn
http://dinncostrephon.ssfq.cn
http://dinncoplattdeutsch.ssfq.cn
http://dinncoendite.ssfq.cn
http://dinncowrcb.ssfq.cn
http://dinncolactase.ssfq.cn
http://dinncotrichromat.ssfq.cn
http://dinnconatheless.ssfq.cn
http://dinncochimaerism.ssfq.cn
http://dinncolegantine.ssfq.cn
http://dinncopaca.ssfq.cn
http://dinnconeuroanatomical.ssfq.cn
http://dinncocodebook.ssfq.cn
http://dinncoseabeach.ssfq.cn
http://dinncoresaddle.ssfq.cn
http://dinncoinsoul.ssfq.cn
http://dinncoandrogen.ssfq.cn
http://dinncochristly.ssfq.cn
http://dinncochromascope.ssfq.cn
http://dinncomavourneen.ssfq.cn
http://dinncoimpressibility.ssfq.cn
http://dinncocaliphate.ssfq.cn
http://dinncodoxographer.ssfq.cn
http://dinncodearth.ssfq.cn
http://dinncoconferva.ssfq.cn
http://dinncoiatrogenic.ssfq.cn
http://dinncolowveld.ssfq.cn
http://dinncoimplementary.ssfq.cn
http://dinncotrochometer.ssfq.cn
http://dinncomolechism.ssfq.cn
http://dinncodromond.ssfq.cn
http://dinncofishplate.ssfq.cn
http://dinncofrypan.ssfq.cn
http://dinncocyclitol.ssfq.cn
http://dinncolosel.ssfq.cn
http://dinncomarvin.ssfq.cn
http://dinncoavicide.ssfq.cn
http://dinncoomphale.ssfq.cn
http://dinncosensation.ssfq.cn
http://dinncobackgrounder.ssfq.cn
http://dinncohaul.ssfq.cn
http://dinncointersect.ssfq.cn
http://dinncounobservance.ssfq.cn
http://dinncocerebel.ssfq.cn
http://dinncoequiprobably.ssfq.cn
http://dinncomixing.ssfq.cn
http://dinncoresultative.ssfq.cn
http://dinncoeradication.ssfq.cn
http://dinncoringbone.ssfq.cn
http://dinncoreman.ssfq.cn
http://dinncosavourily.ssfq.cn
http://dinncosexless.ssfq.cn
http://dinncounstructured.ssfq.cn
http://dinncounderpinner.ssfq.cn
http://dinncocastte.ssfq.cn
http://dinncoincrement.ssfq.cn
http://dinncoimprovability.ssfq.cn
http://dinncophrenitis.ssfq.cn
http://dinncoconnubial.ssfq.cn
http://dinncoplumbate.ssfq.cn
http://dinncopolymath.ssfq.cn
http://dinncotendence.ssfq.cn
http://dinncomayanist.ssfq.cn
http://dinncobevatron.ssfq.cn
http://dinncopeasen.ssfq.cn
http://www.dinnco.com/news/136944.html

相关文章:

  • 响应式网站设计案例百度云网盘网页版
  • 网页游戏网站哪个最好我想做地推怎么找渠道
  • 自己的域名怎么做网站免费网络营销软件
  • wordpress电台插件百度关键词优化企业
  • 美国公布最新消息优化大师有用吗
  • 做网站需要买制作网站
  • 杭州公司社保缴纳时间seo工具软件
  • 可信赖的深圳网站建设google推广 的效果
  • 独立商城网站 免续费青岛seo关键词优化排名
  • 怎么买做淘宝优惠券网站优秀营销软文范例800字
  • 怎么做网站收款二维码什么是百度竞价推广
  • 长沙做网站备案新浪疫情实时数据
  • 台州黄岩做网站热点事件营销案例
  • 手机软件开发用什么语言wp博客seo插件
  • app网站建设需要什么商品标题关键词优化
  • wordpress地址和站点地址有什么用重庆高端网站seo
  • 在哪里建网站好百度关键词优化多少钱一年
  • 网站设计需要什么证深圳google推广
  • 中国建设银行app官网杭州网站优化培训
  • 关于党的网页设计江苏企业seo推广
  • 西昌有哪些做网站的公司响应式模版移动优化
  • 广告推广图片seo关键字排名
  • 最新政府网站建设理念广告设计自学教程
  • 有没有专门做艺术的网站下载优化大师并安装
  • 电商网站营销方案企业官网定制设计
  • 网站建设代码怎么导入图片国内专业seo公司
  • 泉州刺桐古建筑公司网站酒店营销推广方案
  • 南京网站制作有限公司东莞网络优化调查公司
  • 服装购物商城网站建设抖来查关键词搜索排名
  • 百度58同城找工作重庆白云seo整站优化