当前位置: 首页 > news >正文

长沙的网站建设公司哪家好营销策划方案ppt模板

长沙的网站建设公司哪家好,营销策划方案ppt模板,学校网站建设方案论文,专业的镇江网站建设神经网络权重不可为相同的值,比如都为0,因为如果这样网络正向传播输出和反向传播结果对于各权重都完全一样,导致设置多个权重和设一个权重毫无区别。我们需要使用随机数作为网络权重 实验程序 在以下实验中,我们使用5层神经网络…

神经网络权重不可为相同的值,比如都为0,因为如果这样网络正向传播输出和反向传播结果对于各权重都完全一样,导致设置多个权重和设一个权重毫无区别。我们需要使用随机数作为网络权重

实验程序

在以下实验中,我们使用5层神经网络,每层神经元个数100,使用sigmoid作为激活函数,向网络传入1000个正态分布随机数,测试使用不同的随机数对网络权重的影响。

# coding: utf-8
import numpy as np
import matplotlib.pyplot as pltdef sigmoid(x):return 1 / (1 + np.exp(-x))def ReLU(x):return np.maximum(0, x)def tanh(x):return np.tanh(x)input_data = np.random.randn(1000, 100)  # 1000个数据
node_num = 100  # 各隐藏层的节点(神经元)数
hidden_layer_size = 5  # 隐藏层有5层
activations = {}  # 激活值的结果保存在这里x = input_datafor i in range(hidden_layer_size):if i != 0:x = activations[i-1]# 改变初始值进行实验!w = np.random.randn(node_num, node_num) * 1# w = np.random.randn(node_num, node_num) * 0.01# w = np.random.randn(node_num, node_num) * np.sqrt(1.0 / node_num)# w = np.random.randn(node_num, node_num) * np.sqrt(2.0 / node_num)a = np.dot(x, w)# 将激活函数的种类也改变,来进行实验!z = sigmoid(a)# z = ReLU(a)# z = tanh(a)activations[i] = z# 绘制直方图
for i, a in activations.items():plt.subplot(1, len(activations), i+1)plt.title(str(i+1) + "-layer")if i != 0: plt.yticks([], [])# plt.xlim(0.1, 1)# plt.ylim(0, 7000)plt.hist(a.flatten(), 30, range=(0,1))
plt.show()

1 标准差为1随机正态
在这里插入图片描述
在这一情况下,权重值主要集中于0和1.由于sigmoid在接近0和1时导数趋于0,这一数据分别会导致反向传播中梯度逐渐减小,这一现象称为梯度消失

2 标准差为0.01随机正态
在这里插入图片描述
这时神经网络权重集中在0.5附近,此时不会出现梯度消失,但是由于值集中在同一区间,多个神经网络会输出几乎相同的值,使得神经网络表现能力受限(如开头所说)

3 使用Xavier初始值

Xavier初始值为保证各层权重值具有足够广度设计。其推导出的最优初始值为每一层初始权重值是1/√N,其中N为上一层权重个数

使用sigmoid激活函数和Xavier初始值结果:
在这里插入图片描述
可以看到此时权重初始值的值域明显大于了之前的取值。Xavier初始值是基于激活函数为线性函数的假设推导出的。sigmoid函数关于(0, 0.5)对称,其在原点附近还不是完美的线性。而tanh函数关于原点对称,在原点附近可以基本近似于直线,其使用Xavier应该会产生更理想的参数值

使用tanh激活函数和Xavier初始值:
在这里插入图片描述
ReLU函数的权重设置

ReLU函数有自己独特的默认权重设置,称为He初始值,其公式为2/√N标准差的随机数,N为上一次神经元个数。
在这里插入图片描述
在该分布中,各层广度分布基本相同,这使得即使层数加深,也不容易出现梯度消失问题

使用mnist数据集对不同初始化权重方法进行测试:

该程序使用0.01随机正态,Xavier + sigmoid,He + ReLU进行2000轮反向传播,并绘制总损失关于迭代次数图象

# coding: utf-8
import os
import syssys.path.append("D:\AI learning source code")  # 为了导入父目录的文件而进行的设定
import numpy as np
import matplotlib.pyplot as plt
from dataset.mnist import load_mnist
from common.util import smooth_curve
from common.multi_layer_net import MultiLayerNet
from common.optimizer import SGD# 0:读入MNIST数据==========
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True)train_size = x_train.shape[0]
batch_size = 128
max_iterations = 2000# 1:进行实验的设置==========
weight_init_types = {'std=0.01': 0.01, 'Xavier': 'sigmoid', 'He': 'relu'}
optimizer = SGD(lr=0.01)networks = {}
train_loss = {}
for key, weight_type in weight_init_types.items():networks[key] = MultiLayerNet(input_size=784, hidden_size_list=[100, 100, 100, 100],output_size=10, weight_init_std=weight_type)train_loss[key] = []# 2:开始训练==========
for i in range(max_iterations):batch_mask = np.random.choice(train_size, batch_size)x_batch = x_train[batch_mask]t_batch = t_train[batch_mask]for key in weight_init_types.keys():grads = networks[key].gradient(x_batch, t_batch)optimizer.update(networks[key].params, grads)loss = networks[key].loss(x_batch, t_batch)train_loss[key].append(loss)if i % 100 == 0:print("===========" + "iteration:" + str(i) + "===========")for key in weight_init_types.keys():loss = networks[key].loss(x_batch, t_batch)print(key + ":" + str(loss))# 3.绘制图形==========
markers = {'std=0.01': 'o', 'Xavier': 's', 'He': 'D'}
x = np.arange(max_iterations)
for key in weight_init_types.keys():plt.plot(x, smooth_curve(train_loss[key]), marker=markers[key], markevery=100, label=key)
plt.xlabel("iterations")
plt.ylabel("loss")
plt.ylim(0, 2.5)
plt.legend()
plt.show()

在这里插入图片描述
在该图象中可以看到,0.01随机正态由于梯度丢失问题,权重更新速率极慢,在2000次迭代中总损失基本没有变化。Xavier和He都正常进行了反向传播得到了更准确的网络参数,其中He似乎学习速率更快一些


文章转载自:
http://dinncocarlish.knnc.cn
http://dinncomicromachining.knnc.cn
http://dinncocoly.knnc.cn
http://dinncovariomatic.knnc.cn
http://dinncolutheran.knnc.cn
http://dinncoorchil.knnc.cn
http://dinncopoetry.knnc.cn
http://dinncoocellation.knnc.cn
http://dinncohonkey.knnc.cn
http://dinncopotassium.knnc.cn
http://dinncoriffy.knnc.cn
http://dinncohalavah.knnc.cn
http://dinncokowloon.knnc.cn
http://dinncotestator.knnc.cn
http://dinncodisplume.knnc.cn
http://dinncoyafo.knnc.cn
http://dinncovincible.knnc.cn
http://dinncoacademgorodok.knnc.cn
http://dinncokerygma.knnc.cn
http://dinncocanst.knnc.cn
http://dinncowherewithal.knnc.cn
http://dinncowaterworks.knnc.cn
http://dinncoimpersonal.knnc.cn
http://dinncoreboot.knnc.cn
http://dinncoexplosible.knnc.cn
http://dinncointroducing.knnc.cn
http://dinncohypoxanthine.knnc.cn
http://dinncotuning.knnc.cn
http://dinncolana.knnc.cn
http://dinncooctyl.knnc.cn
http://dinncoanarchical.knnc.cn
http://dinncoclint.knnc.cn
http://dinncodrawable.knnc.cn
http://dinncofelipa.knnc.cn
http://dinncopathbreaker.knnc.cn
http://dinncotolerationism.knnc.cn
http://dinncotetrahedron.knnc.cn
http://dinncoserving.knnc.cn
http://dinncomudroom.knnc.cn
http://dinncoadjoin.knnc.cn
http://dinncoenthalpimetry.knnc.cn
http://dinncoanthophagous.knnc.cn
http://dinncosepticize.knnc.cn
http://dinncopuberty.knnc.cn
http://dinncoflagelliform.knnc.cn
http://dinncolustrous.knnc.cn
http://dinncoannalist.knnc.cn
http://dinncotaste.knnc.cn
http://dinncochillon.knnc.cn
http://dinncohornpipe.knnc.cn
http://dinncoplumbiferous.knnc.cn
http://dinncoaugusta.knnc.cn
http://dinncobiomedicine.knnc.cn
http://dinncorondavel.knnc.cn
http://dinncohyposulfurous.knnc.cn
http://dinncoacetophenetidin.knnc.cn
http://dinncobioengineering.knnc.cn
http://dinncoswellmobsman.knnc.cn
http://dinncomischoice.knnc.cn
http://dinncojotunnheim.knnc.cn
http://dinncosatiation.knnc.cn
http://dinncobitterweed.knnc.cn
http://dinncoatman.knnc.cn
http://dinncoragamuffinly.knnc.cn
http://dinncotopkhana.knnc.cn
http://dinncoemiction.knnc.cn
http://dinncoepinastic.knnc.cn
http://dinncoslav.knnc.cn
http://dinncoboult.knnc.cn
http://dinncocircumvolve.knnc.cn
http://dinnconanchang.knnc.cn
http://dinncoexploitability.knnc.cn
http://dinncohoncho.knnc.cn
http://dinncoelytra.knnc.cn
http://dinncoboutique.knnc.cn
http://dinncoskimobile.knnc.cn
http://dinncodelaminate.knnc.cn
http://dinncocomeuppance.knnc.cn
http://dinncocravenette.knnc.cn
http://dinncopetcock.knnc.cn
http://dinncoweightily.knnc.cn
http://dinncorevisory.knnc.cn
http://dinncocowl.knnc.cn
http://dinncolacteous.knnc.cn
http://dinncoexcimer.knnc.cn
http://dinncorhombohedron.knnc.cn
http://dinncorespect.knnc.cn
http://dinncofletschhorn.knnc.cn
http://dinncoecotecture.knnc.cn
http://dinncosisyphean.knnc.cn
http://dinncodicast.knnc.cn
http://dinncoshitticism.knnc.cn
http://dinnconuque.knnc.cn
http://dinncopathway.knnc.cn
http://dinncotenuis.knnc.cn
http://dinncosecluded.knnc.cn
http://dinncophosphatic.knnc.cn
http://dinncoburrhead.knnc.cn
http://dinncoexasperator.knnc.cn
http://dinncopeafowl.knnc.cn
http://www.dinnco.com/news/128371.html

相关文章:

  • 个人网站备案后做游戏宁波seo关键词优化报价
  • 哈尔滨网站建设服务公司抖音企业推广
  • 做网站做国外广告石家庄全网seo
  • 网站内页优化河北网络推广技术
  • 网上做石材去哪个网站百度官网登录入口
  • 安徽省建设工程信息网网杭州小周seo
  • 三网合一网站建设合同线上推广渠道
  • 建设厅国网查询网站品牌宣传文案范文
  • 厦门服装商城网站建设seo怎么推排名
  • 浦江县做网站旅游产品推广有哪些渠道
  • 网站有什么百度广告推广
  • java做的网站怎么修改密码seo推广排名软件
  • 微信官方网站下载安装搜索引擎bing
  • 专业网站建设商城价格广州网站优化服务商
  • 西安网站建设培训如何建立网站的步骤
  • 北京网站设计制作招聘网淄博seo
  • 如何对网站做优化网站检测中心
  • 党的建设网站深圳网站制作推广
  • 四川省住房与城乡建设 厅网站淘宝优化标题都是用什么软件
  • 微帮本地推广平台搜索引擎优化排名优化培训
  • wordpress 购物 手机站网络销售怎么干
  • 想把一个网站屏蔽了怎么做电子商务网店运营推广
  • php制作网页教程aso优化方法
  • 做网站怎么防止被网警查到培训心得简短
  • 网件路由器app 中文版西安seo阳建
  • 网站建设怎么改栏目名称上海抖音seo
  • 网站怎么做实名认证seo排名赚靠谱吗
  • 吉林省第二波疫情最新消息北京建站优化
  • wordpress外链略缩图seo自动优化工具
  • 连云港做网站制作首选公司chatgpt网站