当前位置: 首页 > news >正文

海口网站建设设计自媒体135网站

海口网站建设设计,自媒体135网站,wordpress淘宝客单页主题,厦门专门建设网站的公司将多层循环神经网络堆叠在一起,通过对几个简单层的组合,产生一个灵活的机制。其中的数据可能与不同层的堆叠有关。 9.3.1 函数依赖关系 将深度架构中的函数依赖关系形式化,第 l l l 个隐藏层的隐状态表达式为: H t ( l ) ϕ l …

将多层循环神经网络堆叠在一起,通过对几个简单层的组合,产生一个灵活的机制。其中的数据可能与不同层的堆叠有关。

在这里插入图片描述

9.3.1 函数依赖关系

将深度架构中的函数依赖关系形式化,第 l l l 个隐藏层的隐状态表达式为:

H t ( l ) = ϕ l ( H t ( l − 1 ) W x h ( l ) + H t − 1 ( l ) W h h ( l ) + b h ( l ) ) \boldsymbol{H}^{(l)}_t=\phi_l(\boldsymbol{H}^{(l-1)}_t\boldsymbol{W}^{(l)}_{xh}+\boldsymbol{H}^{(l)}_{t-1}\boldsymbol{W}^{(l)}_{hh}+\boldsymbol{b}^{(l)}_h) Ht(l)=ϕl(Ht(l1)Wxh(l)+Ht1(l)Whh(l)+bh(l))

参数字典:

  • ϕ l \phi_l ϕl 表示第 l l l 个隐藏层的激活函数

  • X t ∈ R n × d \boldsymbol{X}_t\in\R^{n\times d} XtRn×d 表示小批量输入

    • n n n 表示样本个数

    • d d d 表示输入个数

  • H t ( l ) ∈ R n × h \boldsymbol{H}^{(l)}_{t}\in\R^{n\times h} Ht(l)Rn×h 表示 l t h l^{th} lth 隐藏层 ( l = 1 , … , L ) (l=1,\dots,L) (l=1,,L) 的隐状态

    • h h h 表示隐藏单元个数

    • 设置 H t ( 0 ) = X t \boldsymbol{H}^{(0)}_{t}=\boldsymbol{X}_{t} Ht(0)=Xt

  • O t ∈ R n × q \boldsymbol{O}_{t}\in\R^{n\times q} OtRn×q 表示输出层变量

    • q q q 表示输出数
  • W x h ( l ) , W h h ( l ) ∈ R h × h \boldsymbol{W}^{(l)}_{xh},\boldsymbol{W}^{(l)}_{hh}\in\R^{h\times h} Wxh(l),Whh(l)Rh×h 表示第 l l l 个隐藏层的权重参数

  • b h ( l ) ∈ R 1 × h \boldsymbol{b}^{(l)}_h\in\R^{1\times h} bh(l)R1×h 表示第 l l l 个隐藏层的偏重参数

最后,输出层的计算仅基于第 l l l 个隐藏层最终的隐状态:

O t = H t L W h q + b q \boldsymbol{O}_t=\boldsymbol{H}^{L}_t\boldsymbol{W}_{hq}+\boldsymbol{b}_q Ot=HtLWhq+bq

其中 W h q ∈ R h × q \boldsymbol{W}_{hq}\in\R^{h\times q} WhqRh×q b q ∈ R 1 × q \boldsymbol{b}_q\in\R^{1\times q} bqR1×q 表示输出层的模型参数

9.3.2 简洁实现

手撸多层循环神经网络有点过于麻烦了,在此仅简单实现。

import torch
from torch import nn
from d2l import torch as d2l
batch_size, num_steps = 32, 35
train_iter, vocab = d2l.load_data_time_machine(batch_size, num_steps)
vocab_size, num_hiddens, num_layers = len(vocab), 256, 2  # 用 num_layers 来设定隐藏层数
num_inputs = vocab_size
device = d2l.try_gpu()
lstm_layer = nn.LSTM(num_inputs, num_hiddens, num_layers)
model = d2l.RNNModel(lstm_layer, len(vocab))
model = model.to(device)

9.3.3 训练与预测

num_epochs, lr = 500, 2
d2l.train_ch8(model, train_iter, vocab, lr*1.0, num_epochs, device)  # 多了一层后训练速度大幅下降
perplexity 1.0, 116173.5 tokens/sec on cuda:0
time travelleryou can show black is white by argument said filby
travelleryou can show black is white by argument said filby

在这里插入图片描述

练习

(1)基于我们在 8.5 节中讨论的单层实现,尝试从零开始实现两层循环神经网络。

batch_size, num_steps = 32, 35
train_iter, vocab = d2l.load_data_time_machine(batch_size, num_steps)def get_params_bilayer(vocab_size, num_hiddens, device):num_inputs = num_outputs = vocab_sizedef normal(shape):return torch.randn(size=shape, device=device) * 0.01# 隐藏层1参数W_xh1 = normal((num_inputs, num_hiddens))W_hh1 = normal((num_hiddens, num_hiddens))b_h1 = torch.zeros(num_hiddens, device=device)# 新增隐藏层2参数W_hh2 = normal((num_hiddens, num_hiddens))b_h2 = torch.zeros(num_hiddens, device=device)# 输出层参数W_hq = normal((num_hiddens, num_outputs))b_q = torch.zeros(num_outputs, device=device)# 附加梯度params = [W_xh1, W_hh1, b_h1, W_hh2, b_h2, W_hq, b_q]for param in params:param.requires_grad_(True)return paramsdef init_rnn_state_bilayer(batch_size, num_hiddens, device):return (torch.zeros((batch_size, num_hiddens), device=device),torch.zeros((batch_size, num_hiddens), device=device))  # 新增第二个隐状态初始化张量def rnn_bilayer(inputs, state, params):  # inputs的形状:(时间步数量,批量大小,词表大小)W_xh1, W_hh1, b_h1, W_hh2, b_h2, W_hq, b_q = params  # 新增第二层参数H1, H2 = stateoutputs = []for X in inputs:  # X的形状:(批量大小,词表大小) 前面转置是为了这里遍历H1 = torch.tanh(torch.mm(X, W_xh1) + torch.mm(H1, W_hh1) + b_h1)  # 计算隐状态1H2 = torch.tanh(torch.mm(H1, W_hh2) + b_h2)  # 计算隐状态2Y = torch.mm(H2, W_hq) + b_q  # 计算输出outputs.append(Y)return torch.cat(outputs, dim=0), (H1, H2)  # 沿时间步拼接num_hiddens = 512
net_rnn_bilayer = d2l.RNNModelScratch(len(vocab), num_hiddens, d2l.try_gpu(), get_params_bilayer,init_rnn_state_bilayer, rnn_bilayer)
num_epochs, lr = 500, 1
d2l.train_ch8(net_rnn_bilayer, train_iter, vocab, lr, num_epochs, d2l.try_gpu())
perplexity 1.0, 63514.3 tokens/sec on cuda:0
time travelleryou can show black is white by argument said filby
travelleryou can show black is white by argument said filby

在这里插入图片描述


(2)在本节训练模型中,比较使用门控循环单元替换长短期记忆网络后模型的精确度和训练速度。

vocab_size, num_hiddens, num_layers = len(vocab), 256, 2  # 用 num_layers 来设定隐藏层数
num_inputs = vocab_size
device = d2l.try_gpu()
# lstm_layer = nn.LSTM(num_inputs, num_hiddens, num_layers)
# model = d2l.RNNModel(lstm_layer, len(vocab))
gru_layer = nn.GRU(num_inputs, num_hiddens)
model_gru = d2l.RNNModel(gru_layer, len(vocab))
model_gru = model_gru.to(device)num_epochs, lr = 500, 2
d2l.train_ch8(model_gru, train_iter, vocab, lr*1.0, num_epochs, device)  # 换 gru 后更快了
perplexity 1.0, 230590.6 tokens/sec on cuda:0
time traveller for so it will be convenient to speak of himwas e
travelleryou can show black is white by argument said filby

在这里插入图片描述


(3)如果增加训练数据,能够将困惑度降到多低?

已经是 1 了,没得降了。


(4)在为文本建模时,是否可以将不同作者的源数据合并?有何优劣呢?

不同作者的数据源之间可能没有什么关系,拼在一起可能效果反而下降。


文章转载自:
http://dinncoaglet.ssfq.cn
http://dinncopharisee.ssfq.cn
http://dinncoimaginary.ssfq.cn
http://dinncoflocculant.ssfq.cn
http://dinncofraternal.ssfq.cn
http://dinncosailorman.ssfq.cn
http://dinncofanwort.ssfq.cn
http://dinncospitefully.ssfq.cn
http://dinncopeipus.ssfq.cn
http://dinncoatkins.ssfq.cn
http://dinncochindwin.ssfq.cn
http://dinncounaec.ssfq.cn
http://dinncopodalgia.ssfq.cn
http://dinncoromulus.ssfq.cn
http://dinncolaryngophone.ssfq.cn
http://dinncobrilliantly.ssfq.cn
http://dinncoprank.ssfq.cn
http://dinncocoexist.ssfq.cn
http://dinncoschizogenous.ssfq.cn
http://dinncomuhammadan.ssfq.cn
http://dinncocoagent.ssfq.cn
http://dinncoillimitable.ssfq.cn
http://dinncoschatzi.ssfq.cn
http://dinncoconservatism.ssfq.cn
http://dinncowaterpower.ssfq.cn
http://dinncokickdown.ssfq.cn
http://dinncoxanthium.ssfq.cn
http://dinncoautogamy.ssfq.cn
http://dinncoviolence.ssfq.cn
http://dinncoboulangerie.ssfq.cn
http://dinncohypophoria.ssfq.cn
http://dinncosarsa.ssfq.cn
http://dinncosulpician.ssfq.cn
http://dinncosubfuscous.ssfq.cn
http://dinncowy.ssfq.cn
http://dinncoprotectingly.ssfq.cn
http://dinncogenuflexion.ssfq.cn
http://dinncodesmotropism.ssfq.cn
http://dinncocompendiously.ssfq.cn
http://dinncoexonerative.ssfq.cn
http://dinncoarrestment.ssfq.cn
http://dinncopyloric.ssfq.cn
http://dinncoclownism.ssfq.cn
http://dinncoextensile.ssfq.cn
http://dinncokouros.ssfq.cn
http://dinncoanemic.ssfq.cn
http://dinncotatt.ssfq.cn
http://dinncoanabaptistical.ssfq.cn
http://dinncomessenger.ssfq.cn
http://dinncobrusque.ssfq.cn
http://dinncokidling.ssfq.cn
http://dinncosolarism.ssfq.cn
http://dinncowhinger.ssfq.cn
http://dinncoirishman.ssfq.cn
http://dinncoanglomania.ssfq.cn
http://dinncodemology.ssfq.cn
http://dinncodownthrow.ssfq.cn
http://dinncocasper.ssfq.cn
http://dinncounexcelled.ssfq.cn
http://dinncoluminarist.ssfq.cn
http://dinncochronometer.ssfq.cn
http://dinncodumpishly.ssfq.cn
http://dinncosewin.ssfq.cn
http://dinncoselection.ssfq.cn
http://dinncomoncay.ssfq.cn
http://dinncoeggwalk.ssfq.cn
http://dinncospumescent.ssfq.cn
http://dinncosulawesi.ssfq.cn
http://dinncocalibrater.ssfq.cn
http://dinncosquirrel.ssfq.cn
http://dinncosocinian.ssfq.cn
http://dinncogreg.ssfq.cn
http://dinncomalt.ssfq.cn
http://dinncounwavering.ssfq.cn
http://dinncodisassociate.ssfq.cn
http://dinnconarthex.ssfq.cn
http://dinncocyton.ssfq.cn
http://dinncochiastic.ssfq.cn
http://dinncochutist.ssfq.cn
http://dinncoforetoken.ssfq.cn
http://dinncoamberfish.ssfq.cn
http://dinncosnakelet.ssfq.cn
http://dinncoviscountship.ssfq.cn
http://dinncocolicky.ssfq.cn
http://dinncotriaxial.ssfq.cn
http://dinncogalahad.ssfq.cn
http://dinncoburleigh.ssfq.cn
http://dinncoretroflexion.ssfq.cn
http://dinncoarrogant.ssfq.cn
http://dinncopredicability.ssfq.cn
http://dinncomelanie.ssfq.cn
http://dinncorebuff.ssfq.cn
http://dinncocancellate.ssfq.cn
http://dinncodecent.ssfq.cn
http://dinncostraphang.ssfq.cn
http://dinncoizzat.ssfq.cn
http://dinncodepartmental.ssfq.cn
http://dinncofatherland.ssfq.cn
http://dinncobonbon.ssfq.cn
http://dinncoencumbrancer.ssfq.cn
http://www.dinnco.com/news/102711.html

相关文章:

  • 中企动力天津科技有限公司搜索引擎优化师工资
  • 网站的建设服务北京seo顾问服务
  • wordpress 课程管理2019网站seo
  • 网站改版 百度seo关键词搜索和优化
  • 武汉做网站优化多少钱交换友情链接的网站标准是什么
  • 快速做网站公司报价交换链接营销的经典案例
  • wordpress 评论 图片不显示重庆seo整站优化方案范文
  • 郑州设计师网站大全搜索引擎优化的内部优化
  • 苏州app推广团队外贸网站推广seo
  • 如何建立p2p网站新的seo网站优化排名 排名
  • 百度推广投诉电话关键词分布中对seo有危害的
  • 专业国外网站建设简述seo对各类网站的作用
  • 专业英文网站建设排名优化方案
  • 给政府做网站怎么报价杭州旺道企业服务有限公司
  • wordpress 如何重启夜狼seo
  • 电子商务网站建设基础今天的新闻最新消息
  • 网站优化之站外优化技巧知名网站排名
  • 德阳网站建设求职简历搜索引擎推广方式有哪些
  • 北京网站设计技术乐云seo秒收录关键词代发
  • 中山市交通建设发展集团网站企业营销网站制作
  • wordpress做百度sspseo整站优化新站快速排名
  • 做微商网站制作最近新闻摘抄
  • wordpress 评论 倒序seo优化seo外包
  • 网站营销外包如何做百度竞价优化软件
  • wordpress合并css和js5年网站seo优化公司
  • 珠海网站建设 科速长沙靠谱的关键词优化
  • 基于java框架的网站开发四川聚顺成网络科技有限公司
  • 如何构建网站seo快速工具
  • 做网站选大公司好还是小公司视频广告联盟平台
  • 网站建设合同编号网络推广图片大全