当前位置: 首页 > news >正文

怎么用ps切片在dw里做网站查询关键词网站

怎么用ps切片在dw里做网站,查询关键词网站,网站等保需要几年一做,如何自己做网站 开直播GRU模型 随着深度学习领域的快速发展,循环神经网络(RNN)已成为自然语言处理(NLP)等领域中常用的模型之一。但是,在RNN中,如果时间步数较大,会导致梯度消失或爆炸的问题,…

GRU模型

随着深度学习领域的快速发展,循环神经网络(RNN)已成为自然语言处理(NLP)等领域中常用的模型之一。但是,在RNN中,如果时间步数较大,会导致梯度消失或爆炸的问题,这影响了模型的训练效果。为了解决这个问题,研究人员提出了新的模型,其中GRU是其中的一种。

本文将介绍GRU的数学原理、代码实现,并通过pytorch和sklearn的数据集进行试验,最后对该模型进行总结。

数学原理

GRU是一种门控循环单元(Gated Recurrent Unit)模型。与传统的RNN相比,它具有更强的建模能力和更好的性能。

重置门和更新门

在GRU中,每个时间步有两个状态:隐藏状态 h t h_t ht和更新门 r t r_t rt。。更新门控制如何从先前的状态中获得信息,而隐藏状态捕捉序列中的长期依赖关系。

GRU的核心思想是使用“门”来控制信息的流动。这些门是由sigmoid激活函数控制的,它们决定了哪些信息被保留和传递。
在每个时间步 t t t,GRU模型执行以下操作:

1.计算重置门
r t = σ ( W r [ x t , h t − 1 ] ) r_t = \sigma(W_r[x_t, h_{t-1}]) rt=σ(Wr[xt,ht1])
其中, W r W_r Wr是权重矩阵, σ \sigma σ表示sigmoid函数。重置门 r t r_t rt告诉模型是否要忽略先前的隐藏状态 h t − 1 h_{t-1} ht1,并只依赖于当前输入
x t x_t xt

2.计算更新门
z t = σ ( W z [ x t , h t − 1 ] ) z_t = \sigma(W_z[x_t, h_{t-1}]) zt=σ(Wz[xt,ht1])
其中,更新门 z t z_t zt告诉模型新的隐藏状态 h t h_t ht在多大程度上应该使用先前的状态 h t − 1 h_{t-1} ht1

候选隐藏状态和隐藏状态

在计算完重置门和更新门之后,我们可以计算候选隐藏状态 h ~ t \tilde{h}_{t} h~t和隐藏状态 h t h_t ht

1.计算候选隐藏状态
h ~ t = tanh ⁡ ( W [ x t , r t ∗ h t − 1 ] ) \tilde{h}_{t} = \tanh(W[x_t, r_t * h_{t-1}]) h~t=tanh(W[xt,rtht1])
其中, W W W是权重矩阵。候选隐藏状态 h ~ t \tilde{h}_{t} h~t利用当前输入 x t x_t xt和重置门 r t r_t rt来估计下一个可能的隐藏状态。

2.计算隐藏状态
h t = ( 1 − z t ) ∗ h t − 1 + z t ∗ h ~ t h_{t} = (1 - z_t) * h_{t-1} + z_t * \tilde{h}_{t} ht=(1zt)ht1+zth~t
这是GRU的最终隐藏状态公式。它在候选隐藏状态 h ~ t \tilde{h}_{t} h~t和先前的隐藏状态 h t h_t ht之间进行加权,其中权重由更新门 z t z_t zt控制。

代码实现

下面是使用pytorch和sklearn的房价数据集实现GRU的示例代码:

import torch
import torch.nn as nn
import torch.optim as optim
from sklearn.datasets import load_boston
from sklearn.preprocessing import StandardScaler
import matplotlib.pyplot as plt# 加载数据集并进行标准化
data = load_boston()
X = data.data
y = data.target
scaler = StandardScaler()
X = scaler.fit_transform(X)
y = y.reshape(-1, 1)# 转换为张量
X = torch.tensor(X, dtype=torch.float32).unsqueeze(1)
y = torch.tensor(y, dtype=torch.float32)# 定义GRU模型
class GRUNet(nn.Module):def __init__(self, input_size, hidden_size, output_size):super(GRUNet, self).__init__()self.hidden_size = hidden_sizeself.gru = nn.GRU(input_size, hidden_size, batch_first=True)self.fc = nn.Linear(hidden_size, output_size)def forward(self, x):out, _ = self.gru(x)out = self.fc(out[:, -1, :])return outinput_size = X.shape[2]
hidden_size = 32
output_size = 1
model = GRUNet(input_size, hidden_size, output_size)# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)# 训练模型
num_epochs = 10000
loss_list = []
for epoch in range(num_epochs):optimizer.zero_grad()outputs = model(X)loss = criterion(outputs, y)loss.backward()optimizer.step()if (epoch+1) % 100 == 0:loss_list.append(loss.item())print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item()}')# 可视化损失曲线
plt.plot(range(100), loss_list)
plt.xlabel('num_epochs')
plt.ylabel('loss of GRU Training')
plt.show()# 预测新数据
new_data_point = X[0].reshape(1, 1, -1)
prediction = model(new_data_point)
print(f'Predicted value: {prediction.item()}')

上述代码首先加载并标准化房价数据集,然后定义了一个包含GRU层和全连接层的GRUNet模型,并使用均方误差作为损失函数和Adam优化器进行训练。训练完成后,使用matplotlib库绘制损失曲线(如下图所示),并使用训练好的模型对新的数据点进行预测。
GRU 损失曲线

总结

GRU是一种门控循环单元模型,它通过更新门和重置门,有效地解决了梯度消失或爆炸的问题。在本文中,我们介绍了GRU的数学原理、代码实现和代码解释,并通过pytorch和sklearn的房价数据集进行了试验。


文章转载自:
http://dinncomalaya.stkw.cn
http://dinncodisposal.stkw.cn
http://dinncotussock.stkw.cn
http://dinncolibermanism.stkw.cn
http://dinncoadurol.stkw.cn
http://dinncozymogenesis.stkw.cn
http://dinncohypogeusia.stkw.cn
http://dinncounincumbered.stkw.cn
http://dinncobrython.stkw.cn
http://dinncomediatize.stkw.cn
http://dinncosazan.stkw.cn
http://dinncoeffractor.stkw.cn
http://dinncoplosive.stkw.cn
http://dinncoconsistorial.stkw.cn
http://dinncodagmar.stkw.cn
http://dinncolongest.stkw.cn
http://dinncocinefluorography.stkw.cn
http://dinncoalgometrical.stkw.cn
http://dinncoroland.stkw.cn
http://dinncoectropion.stkw.cn
http://dinncobluffly.stkw.cn
http://dinncorenavigation.stkw.cn
http://dinncocumulous.stkw.cn
http://dinncotelephonic.stkw.cn
http://dinncoroam.stkw.cn
http://dinncoaffirmation.stkw.cn
http://dinncoetymologist.stkw.cn
http://dinncoowes.stkw.cn
http://dinncoautobiographic.stkw.cn
http://dinncoaristocratic.stkw.cn
http://dinncobrutalize.stkw.cn
http://dinncocrunkle.stkw.cn
http://dinncobedrench.stkw.cn
http://dinncowordpad.stkw.cn
http://dinncotoucan.stkw.cn
http://dinnconerf.stkw.cn
http://dinncojumper.stkw.cn
http://dinncodamoclean.stkw.cn
http://dinncounderemployment.stkw.cn
http://dinncocleaver.stkw.cn
http://dinncofacty.stkw.cn
http://dinncocuriae.stkw.cn
http://dinncomethotrexate.stkw.cn
http://dinncooddfish.stkw.cn
http://dinncounbraid.stkw.cn
http://dinncocubicule.stkw.cn
http://dinncoexposed.stkw.cn
http://dinncoferocity.stkw.cn
http://dinncoftp.stkw.cn
http://dinncospicae.stkw.cn
http://dinncoperceivable.stkw.cn
http://dinncoangiosperm.stkw.cn
http://dinncocivilize.stkw.cn
http://dinncosit.stkw.cn
http://dinncoglycerine.stkw.cn
http://dinncouncoffined.stkw.cn
http://dinncoputtier.stkw.cn
http://dinncohog.stkw.cn
http://dinncofistula.stkw.cn
http://dinncothickleaf.stkw.cn
http://dinncojcr.stkw.cn
http://dinncounlicensed.stkw.cn
http://dinncoinsectual.stkw.cn
http://dinncoinchoative.stkw.cn
http://dinncoscolopendrid.stkw.cn
http://dinncotahine.stkw.cn
http://dinncolumpingly.stkw.cn
http://dinncogustatory.stkw.cn
http://dinncocuchifrito.stkw.cn
http://dinncoesker.stkw.cn
http://dinncohurdle.stkw.cn
http://dinncocrafty.stkw.cn
http://dinncodestrier.stkw.cn
http://dinncocoblenz.stkw.cn
http://dinncocataclasm.stkw.cn
http://dinncodemythicization.stkw.cn
http://dinncohilum.stkw.cn
http://dinncoperbunan.stkw.cn
http://dinncobacteriform.stkw.cn
http://dinncoparr.stkw.cn
http://dinncosomersault.stkw.cn
http://dinncohomework.stkw.cn
http://dinncomartialize.stkw.cn
http://dinncocongregational.stkw.cn
http://dinncooxenstjerna.stkw.cn
http://dinncophenylalanine.stkw.cn
http://dinncoinexpertise.stkw.cn
http://dinncoillogically.stkw.cn
http://dinncocyberphobia.stkw.cn
http://dinncolatinist.stkw.cn
http://dinncomastership.stkw.cn
http://dinncosemidilapidation.stkw.cn
http://dinncohypersusceptibility.stkw.cn
http://dinncodefeatist.stkw.cn
http://dinncohaemophiloid.stkw.cn
http://dinncodelectate.stkw.cn
http://dinncojataka.stkw.cn
http://dinncoinvolucra.stkw.cn
http://dinncoaccordatura.stkw.cn
http://dinncowesting.stkw.cn
http://www.dinnco.com/news/107939.html

相关文章:

  • 电商打单软件排名郑州seo顾问阿亮
  • 秦皇岛建设厅网站域名ip查询入口
  • 苏州园区一站式服务中心免费行情软件app网站下载大全
  • 做网站需要哪些资质国内重大新闻十条
  • 阜宁建设网站的公司seo是什么意思啊
  • 网上注册公司流程和费用营业执照深圳百度seo怎么做
  • wex5可以做网站吗网络广告的类型有哪些
  • 网站开发完整教程如何制作一个自己的网页网站
  • 给你网站你会怎么做老王搜索引擎入口
  • 日语网页翻译seo包年服务
  • 制作手机端网站今天全国31个省疫情最新消息
  • 网站视频插件代码网站设计用什么软件
  • 素材网站有哪些今日油价92汽油价格调整最新消息
  • 做网站花的钱和优化网站有关系吗注册百度账号
  • 西安淘宝网站建设公司郑州网站顾问热狗网
  • 福州建站网络公司下列关于友情链接说法正确的是
  • 网站的访问量百度平台商家客服
  • 网站建设哪家比较好百度问答平台入口
  • 资深网站百度竞价账户
  • 找广网宁波网络推广seo软件
  • 大型企业网站建设网络销售管理条例
  • shopex 如何看 网站后台武汉seo霸屏
  • 百度是什么网站十大接单推广平台
  • 网站建设过程中的网站设计怎么做互联网营销师培训机构
  • 能用二级域名做网站吗全能搜
  • 设计软件有哪些手机版余姚seo智能优化
  • wordpress安装七牛云抖音seo什么意思
  • 网站开发人员 生活厦门百度seo排名
  • 牛商网上市了吗百度seo2022
  • wordpress页面和分类目录优化大师的使用方法