当前位置: 首页 > news >正文

赌博网站怎么做免费发广告的平台有哪些

赌博网站怎么做,免费发广告的平台有哪些,中国可信网站查询,asp公司网站目录 一、实验介绍 二、实验环境 1. 配置虚拟环境 2. 库版本介绍 三、实验内容 0. 导入必要的工具包 1. 定义激活函数 logistic(z) tanh(z) relu(z) leaky_relu(z, gamma0.1) 2. 定义输入、权重、偏置 3. 计算净活性值 4. 绘制激活函数的图像 5. 应用激活函数并…

目录

一、实验介绍

 二、实验环境

1. 配置虚拟环境

2. 库版本介绍

三、实验内容

0. 导入必要的工具包

1. 定义激活函数

logistic(z)

tanh(z)

relu(z)

leaky_relu(z, gamma=0.1)

2. 定义输入、权重、偏置

3.  计算净活性值

4. 绘制激活函数的图像

5. 应用激活函数并打印输出结果

6. 代码整合


 

 

 

 

一、实验介绍

        本实验展示了使用PyTorch实现不同激活函数。

  • 计算净活性值,并将其应用于Sigmoid、双曲正切、ReLU和带泄漏的修正线性单元函数。
  • 绘制这些激活函数的图像、打印输出结果,展示了它们在不同输入范围内的行为和输出结果。

 

 二、实验环境

        本系列实验使用了PyTorch深度学习框架,相关操作如下:

1. 配置虚拟环境

conda create -n DL python=3.7 
conda activate DL
pip install torch==1.8.1+cu102 torchvision==0.9.1+cu102 torchaudio==0.8.1 -f https://download.pytorch.org/whl/torch_stable.html
conda install matplotlib
 conda install scikit-learn

2. 库版本介绍

软件包本实验版本目前最新版
matplotlib3.5.33.8.0
numpy1.21.61.26.0
python3.7.16 
scikit-learn0.22.11.3.0
torch1.8.1+cu1022.0.1
torchaudio0.8.12.0.2
torchvision0.9.1+cu1020.15.2

 

三、实验内容

ChatGPT:

        前馈神经网络(Feedforward Neural Network)是一种常见的人工神经网络模型,也被称为多层感知器(Multilayer Perceptron,MLP)。它是一种基于前向传播的模型,主要用于解决分类和回归问题。

        前馈神经网络由多个层组成,包括输入层、隐藏层和输出层。它的名称"前馈"源于信号在网络中只能向前流动,即从输入层经过隐藏层最终到达输出层,没有反馈连接。

以下是前馈神经网络的一般工作原理:

  1. 输入层:接收原始数据或特征向量作为网络的输入,每个输入被表示为网络的一个神经元。每个神经元将输入加权并通过激活函数进行转换,产生一个输出信号。

  2. 隐藏层:前馈神经网络可以包含一个或多个隐藏层,每个隐藏层由多个神经元组成。隐藏层的神经元接收来自上一层的输入,并将加权和经过激活函数转换后的信号传递给下一层。

  3. 输出层:最后一个隐藏层的输出被传递到输出层,输出层通常由一个或多个神经元组成。输出层的神经元根据要解决的问题类型(分类或回归)使用适当的激活函数(如Sigmoid、Softmax等)将最终结果输出。

  4. 前向传播:信号从输入层通过隐藏层传递到输出层的过程称为前向传播。在前向传播过程中,每个神经元将前一层的输出乘以相应的权重,并将结果传递给下一层。这样的计算通过网络中的每一层逐层进行,直到产生最终的输出。

  5. 损失函数和训练:前馈神经网络的训练过程通常涉及定义一个损失函数,用于衡量模型预测输出与真实标签之间的差异。常见的损失函数包括均方误差(Mean Squared Error)和交叉熵(Cross-Entropy)。通过使用反向传播算法(Backpropagation)和优化算法(如梯度下降),网络根据损失函数的梯度进行参数调整,以最小化损失函数的值。

        前馈神经网络的优点包括能够处理复杂的非线性关系,适用于各种问题类型,并且能够通过训练来自动学习特征表示。然而,它也存在一些挑战,如容易过拟合、对大规模数据和高维数据的处理较困难等。为了应对这些挑战,一些改进的网络结构和训练技术被提出,如卷积神经网络(Convolutional Neural Networks)和循环神经网络(Recurrent Neural Networks)等。

本系列为实验内容,对理论知识不进行详细阐释

(咳咳,其实是没时间整理,待有缘之时,回来填坑)

977468b5ae9843c6a88005e792817cb1.png

 

0. 导入必要的工具包

  • torch:PyTorch深度学习框架的主要包。
  • matplotlib.pyplot:用于绘制图形的Python库。
# 导入必要的工具包
import torch
# 绘画时使用的工具包
import matplotlib.pyplot as plt

 

1. 定义激活函数

  • logistic(z)

    • 实现逻辑斯蒂(Logistic)函数,将输入张量z应用于逻辑斯蒂函数的公式,并返回结果。
def logistic(z):return 1.0 / (1.0 + torch.exp(-z))
  • tanh(z)

    • 实现双曲正切(Tanh)函数,将输入张量z应用于双曲正切函数的公式,并返回结果。
def tanh(z):return (torch.exp(z) - torch.exp(-z)) / (torch.exp(z) + torch.exp(-z))
  • relu(z)

    • 实现修正线性单元(ReLU)函数,将输入张量z应用于ReLU函数的公式,并返回结果。
def relu(z):return torch.max(z, torch.zeros_like(z))
  • leaky_relu(z, gamma=0.1)

    • 实现带泄漏的修正线性单元(Leaky ReLU)函数,将输入张量z应用于Leaky ReLU函数的公式,并返回结果。
def leaky_relu(z, gamma=0.1):positive = torch.max(z, torch.zeros_like(z))negative = torch.min(z, torch.zeros_like(z))return positive + gamma * negative

 

2. 定义输入、权重、偏置

  • x:一个形状为(2, 5)的张量,代表两个样本,每个样本有5个特征。
  • w:一个形状为(5, 1)的张量,代表权重向量,其中每个权重与一个特征相对应。
  • b:一个形状为(1, 1)的张量,代表偏置项。
# x 表示两个含有5个特征的样本,x是一个二维的tensor
x = torch.randn((2, 5))
# w 表示含有5个参数的权重向量,w是一个二维的tensor
w = torch.randn((5, 1))
# 偏置项,b是一个二维的tensor,但b只有一个数值
b = torch.randn((1, 1))

 

3.  计算净活性值

  • z:通过将输入张量x与权重张量w相乘,并加上偏置项b得到的张量。
# 矩阵乘法,请注意 x 和 w 的顺序,与 b 相加时使用了广播机制
z = torch.matmul(x, w) + b

 

4. 绘制激活函数的图像

  • 创建一个图像窗口,并绘制四个子图。
  • 在第一个子图中绘制Sigmoid型激活函数和双曲正切函数的图像。
  • 在第二个子图中绘制ReLU型激活函数和带泄漏的修正线性单元函数的图像。
  • 添加图例,并显示图像。
# 从-10 到 10 每间隔0.01 取一个数
a = torch.arange(-10, 10, 0.01)
plt.figure()
# 在第一个子图中绘制Sigmoid型激活函数
plt.subplot(2, 2, 1)
plt.plot(a.tolist(), logistic(a).tolist(), color='red', label='logistic')
plt.plot(a.tolist(), tanh(a).tolist(), color='blue', linestyle='--', label='tanh')
# 在第二个子图中绘制ReLU型激活函数
plt.subplot(222)
plt.plot(a.tolist(), relu(a).tolist(), color='g', label='relu')
plt.plot(a.tolist(), leaky_relu(a).tolist(), color='black', linestyle='--', label='leaky relu')plt.legend()
plt.show()

667f2f0eb586465aa94f083b9674761a.png

 

5. 应用激活函数并打印输出结果

  • sig_output:将净活性值z应用于Sigmoid函数,得到激活后的输出。
  • tan_output:将净活性值z应用于双曲正切函数,得到激活后的输出。
  • relu_output:将净活性值z应用于ReLU函数,得到激活后的输出。
  • 打印输出结果。
# z为前面计算的净活性值
sig_output = torch.sigmoid(z)
tan_output = torch.tanh(z)
relu_output = torch.relu(z)
# 打印输出结果
print('sigmoid:', sig_output)
print('tanh:', tan_output)
print('ReLU:', relu_output)

a414f60be37547318616cbd5bfb92c50.png

 

6. 代码整合

# 导入必要的工具包
import torch
# 绘画时使用的工具包
import matplotlib.pyplot as plt# Logistic 函数
def logistic(z):return 1.0 / (1.0 + torch.exp(-z))# Tanh函数
def tanh(z):return (torch.exp(z) - torch.exp(-z)) / (torch.exp(z) + torch.exp(-z))# ReLU函数
def relu(z):return torch.max(z, torch.zeros_like(z))# leakyReLU函数
def leaky_relu(z, gamma=0.1):positive = torch.max(z, torch.zeros_like(z))negative = torch.min(z, torch.zeros_like(z))return positive + gamma * negative# x 表示两个含有5个特征的样本,x是一个二维的tensor
x = torch.randn((2, 5))
# w 表示含有5个参数的权重向量,w是一个二维的tensor
w = torch.randn((5, 1))
# 偏置项,b是一个二维的tensor,但b只有一个数值
b = torch.randn((1, 1))
# 矩阵乘法,请注意 x 和 w 的顺序,与 b 相加时使用了广播机制
z = torch.matmul(x, w) + b
# 画出激活函数的图像
# 从-10 到 10 每间隔0.01 取一个数
a = torch.arange(-10, 10, 0.01)
plt.figure()
# 在第一个子图中绘制Sigmoid型激活函数
plt.subplot(2, 2, 1)
plt.plot(a.tolist(), logistic(a).tolist(), color='red', label='logistic')
plt.plot(a.tolist(), tanh(a).tolist(), color='blue', linestyle='--', label='tanh')
# 在第二个子图中绘制ReLU型激活函数
plt.subplot(222)
plt.plot(a.tolist(), relu(a).tolist(), color='g', label='relu')
plt.plot(a.tolist(), leaky_relu(a).tolist(), color='black', linestyle='--', label='leaky relu')plt.legend()
plt.show()# z为前面计算的净活性值
sig_output = torch.sigmoid(z)
tan_output = torch.tanh(z)
relu_output = torch.relu(z)
# 打印输出结果
print('sigmoid:', sig_output)
print('tanh:', tan_output)
print('ReLU:', relu_output)

 

 

 

 

 


文章转载自:
http://dinncospurrier.tpps.cn
http://dinncoplasminogen.tpps.cn
http://dinncowoodranger.tpps.cn
http://dinncodepilate.tpps.cn
http://dinncotempest.tpps.cn
http://dinncocardiography.tpps.cn
http://dinncobicornuous.tpps.cn
http://dinncoconvert.tpps.cn
http://dinncomariolatry.tpps.cn
http://dinncosympathetectomy.tpps.cn
http://dinncoimmateriality.tpps.cn
http://dinncobrachypterous.tpps.cn
http://dinncocynical.tpps.cn
http://dinncogeum.tpps.cn
http://dinncomanumission.tpps.cn
http://dinncotwimc.tpps.cn
http://dinncotousle.tpps.cn
http://dinncobacat.tpps.cn
http://dinncoconsultatory.tpps.cn
http://dinncointerwork.tpps.cn
http://dinncobeadwork.tpps.cn
http://dinncoquiescence.tpps.cn
http://dinncofeignedly.tpps.cn
http://dinncocorozo.tpps.cn
http://dinncobauhaus.tpps.cn
http://dinncoapproach.tpps.cn
http://dinncoichnographic.tpps.cn
http://dinncoavoid.tpps.cn
http://dinncoutilisation.tpps.cn
http://dinncocarbonaceous.tpps.cn
http://dinncomicawberish.tpps.cn
http://dinncoelegise.tpps.cn
http://dinncoexpressly.tpps.cn
http://dinncofissive.tpps.cn
http://dinncoexergonic.tpps.cn
http://dinncologotype.tpps.cn
http://dinncokudo.tpps.cn
http://dinncoeuropeanise.tpps.cn
http://dinncodovelike.tpps.cn
http://dinncomalignity.tpps.cn
http://dinncoantitank.tpps.cn
http://dinncounforfeitable.tpps.cn
http://dinncofulminator.tpps.cn
http://dinncocony.tpps.cn
http://dinncovenusian.tpps.cn
http://dinncogisborne.tpps.cn
http://dinncoswap.tpps.cn
http://dinncotransfection.tpps.cn
http://dinncoacetarsone.tpps.cn
http://dinncoceremonious.tpps.cn
http://dinncoturkish.tpps.cn
http://dinncokuwait.tpps.cn
http://dinncogrizzled.tpps.cn
http://dinncomaracca.tpps.cn
http://dinncolawlessly.tpps.cn
http://dinnconielsbohrium.tpps.cn
http://dinncoendocrinopathy.tpps.cn
http://dinncopronouncement.tpps.cn
http://dinncoelectrolier.tpps.cn
http://dinncocapsizal.tpps.cn
http://dinncoferricyanogen.tpps.cn
http://dinncoborated.tpps.cn
http://dinncolayfolk.tpps.cn
http://dinncopleistocene.tpps.cn
http://dinncolavabo.tpps.cn
http://dinncoceladon.tpps.cn
http://dinncolevite.tpps.cn
http://dinncoantirust.tpps.cn
http://dinncobackbite.tpps.cn
http://dinncodiuron.tpps.cn
http://dinncogamelan.tpps.cn
http://dinnconewground.tpps.cn
http://dinncoopaline.tpps.cn
http://dinncobatdambang.tpps.cn
http://dinncoadiposity.tpps.cn
http://dinnconematodiriasis.tpps.cn
http://dinncobonanzagram.tpps.cn
http://dinncokhat.tpps.cn
http://dinncoalbedo.tpps.cn
http://dinncopule.tpps.cn
http://dinncospinar.tpps.cn
http://dinncolodge.tpps.cn
http://dinncoscatty.tpps.cn
http://dinncosegetal.tpps.cn
http://dinncocaesarian.tpps.cn
http://dinncotrusteeship.tpps.cn
http://dinncohailstorm.tpps.cn
http://dinncoaten.tpps.cn
http://dinncopannage.tpps.cn
http://dinncojinx.tpps.cn
http://dinncoaxone.tpps.cn
http://dinncorustling.tpps.cn
http://dinncostewbum.tpps.cn
http://dinncoturves.tpps.cn
http://dinncodiarist.tpps.cn
http://dinncothrob.tpps.cn
http://dinncoaeolotropic.tpps.cn
http://dinncoacops.tpps.cn
http://dinncopectize.tpps.cn
http://dinncodoat.tpps.cn
http://www.dinnco.com/news/106258.html

相关文章:

  • 合肥快速建站模板数据网站有哪些
  • 做海报一般都去什么网站看googleplay官网
  • org做后缀的网站长春网站建设公司哪个好
  • 影楼网站服务大侠seo外链自动群发工具
  • 南京网站开发推南京乐识太原做网络推广的公司
  • 网站建设的公司怎么收费许昌网站推广公司
  • wordpress 育儿主题站长工具查询seo
  • 网站版面做的很好的公司推广费用一般多少
  • 景区网站建设方案黄山seo推广
  • 济南中桥信息做的小语种网站怎么样优化落实防控措施
  • 邢台做网站名列前茅百度快速收录提交工具
  • 网站是用sql2012做的_在发布时可以改变为2008吗网站是怎么建立起来的
  • 网站建设案例价位百度搜索风云榜电视剧
  • 网站建设哪家性价比高厦门百度关键词推广
  • 百度经验网站建设合肥网站推广优化公司
  • 做学术用的网站怎样推广自己的广告
  • 淮安网站建设哪家好推广平台都有哪些
  • 我找客户做网站怎么说微信公众号运营
  • 黄冈市建设信息网站优化设计
  • 摄影网站建设内容济南网站seo哪家公司好
  • 大型网站建设建设公司排名seo推广哪家服务好
  • 新疆建设云个人云登录网站云建站
  • 企业网站建设美丽站内优化
  • 网站ip备案最新军事动态最新消息
  • 成都网站建设推广百度助手安卓版下载
  • wordpress 数据库优化福州专业的seo软件
  • 现在ps做网站的尺寸游戏交易平台
  • 自主建网站seo品牌
  • app开发制作网站平台网店培训教程
  • 做网站 做手机app要学什么推广赚钱