当前位置: 首页 > news >正文

智慧团建网站密码忘了东莞网站建设推广品众

智慧团建网站密码忘了,东莞网站建设推广品众,济宁网站建设公司,山东振国网站建设文章目录 1. torch.nn.Conv2d2. torch.nn.MaxPool2d3. torch.nn.ReLU4. torch.nn.Linear5. torch.nn.Dropout 卷积神经网络详解:csdn链接 其中包括对卷积操作中卷积核的计算、填充、步幅以及最大值池化的操作。 1. torch.nn.Conv2d 对由多个输入平面组成的输入信号…

文章目录

    • 1. torch.nn.Conv2d
    • 2. torch.nn.MaxPool2d
    • 3. torch.nn.ReLU
    • 4. torch.nn.Linear
    • 5. torch.nn.Dropout

卷积神经网络详解:csdn链接
其中包括对卷积操作中卷积核的计算、填充、步幅以及最大值池化的操作。

1. torch.nn.Conv2d

对由多个输入平面组成的输入信号应用2D卷积。

官方文档:torch.nn.Conv2d
CLASS torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None)
主要参数:

  • in_channels(int):输入图像中的通道数
  • out_channels(int):卷积产生的通道数
  • kernel_size(int或tuple):卷积内核的大小

默认参数:

  • stride(int或tuple,可选):卷积的步幅。默认值:1
  • padding(int,tuple或str,可选):添加到输入的所有四边的填充。默认值:0
  • padding_mode(str,可选):‘zeros’ 、 ‘reflect’ 、 ‘replicate’ 或 ‘circular’ 。默认值: ‘zeros’
  • dilation(int或tuple,可选):内核元素之间的间距。默认值:1
  • groups(int,可选):从输入通道到输出通道的阻塞连接数。默认值:1
  • bias(bool,可选):如果 True ,则向输出添加可学习的偏置。默认值: True

举例说明

import torch
from torch import nn# 内核方正,步调一致
m1 = nn.Conv2d(16, 33, 3, stride=2)
# 非方形内核和不等距步长,并有填充
m2 = nn.Conv2d(16, 33, (3, 5), stride=(2, 1), padding=(4, 2))
# 非方形内核和不等步长,以及填充和扩张
m3 = nn.Conv2d(16, 33, (3, 5), stride=(2, 1), padding=(4, 2), dilation=(3, 1))

卷积核通过选取内核大小,其中参数值是随机的

import torch
from torch import nnk = nn.Conv2d(1, 1, 3, stride=1)
print(list(k.parameters()))

在这里插入图片描述

使用CIFAR10数据进行卷积操作,并进行可视化操作

import torch
import torchvision.datasets
from torch import nn
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter# 使用CIFAR10的训练数据
train_data = torchvision.datasets.CIFAR10("../dataset", train=True, transform=torchvision.transforms.ToTensor(),download=True)
train_loader = DataLoader(train_data, batch_size=64)writer = SummaryWriter("logs")class Model(nn.Module):def __init__(self):super().__init__()self.model1 = nn.Conv2d(in_channels=3, out_channels=6, kernel_size=3, stride=1)def forward(self, x):x = self.model1(x)return xstep = 0
# 创建模型
model = Model()
for data in train_loader:imgs, targets = dataoutput = model(imgs)writer.add_images("input", imgs, step)# output此时为6通道,为了可视化,现将其转换为3通道# imgs 的形状大小为 [64, 3, 32, 32]# 经过卷积操作后,output的高度和宽度为:32 - 3 + 1 = 30output = torch.reshape(output, (-1, 3, 30, 30))writer.add_images("output", output, step)step = step + 1writer.close()

打开命令行,输入以下代码,并打开TensorBoard的链接: http://localhost:6006/

tensorboard --logdir=logs

在这里插入图片描述

2. torch.nn.MaxPool2d

最大值池化层,对由多个输入平面组成的输入信号应用2D最大池化。

官方文档:torch.nn.MaxPool2d
CLASS torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)
参数 kernel_size 、 stride 、 padding 、 dilation 可以是:

  • 单个 int-在这种情况下,高度和宽度尺寸使用相同的值
  • 两个int的 tuple -在这种情况下,第一个int用于高度维度,第二个int用于宽度维度

主要参数:

  • kernel_size(Union[int,Tuple[int,int]])-窗口的最大值

默认参数:

  • stride(Union[int,Tuple[int,int]])-窗口的步幅。默认值为 kernel_size
  • padding(Union[int,Tuple[int,int]])-要在两边添加的隐式负无穷大填充
  • dilation(Union[int,Tuple[int,int]])-控制窗口中元素步幅的参数
  • return_indices(bool)-如果 True ,将返回最大索引沿着输出。 torch.nn.MaxUnpool2d 以后有用
  • ceil_mode(bool)-当为True时,将使用ceil而不是floor来计算输出形状

最大汇聚层,也叫做最大池化层,代码实现

import torch
import torchvision.datasets
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter# 使用测试数据集
dataset = torchvision.datasets.CIFAR10("./dataset", train=False, transform=torchvision.transforms.ToTensor(),download=True)
dataloader = DataLoader(dataset, batch_size=64)writer = SummaryWriter("logs")class Model(nn.Module):def __init__(self):super(Module, self).__init__()self.maxpool1 = MaxPool2d(kernel_size=3, ceil_mode=False)def forward(self, input):output = self.maxpool1(input)return output# 创建模型
model = Model()
step = 0
for data in dataloader:imgs, targets = dataoutput = model(imgs)writer.add_images("input", imgs, step)writer.add_images("output_maxpool", output, step)step = step + 1writer.close()

在这里插入图片描述

3. torch.nn.ReLU

非线性激活函数,逐元素应用整流线性单位函数:
输入与输出形状相同
在这里插入图片描述

官方文档:torch.nn.ReLU
CLASS torch.nn.ReLU(inplace=False)
主要参数:

  • inplace(bool):可以选择就地执行操作。默认值: False
    在这里插入图片描述

代码实现

import torch
import torchvision.datasets
from torch import nn
from torch.nn import MaxPool2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter# 使用测试数据集
dataset = torchvision.datasets.CIFAR10("../dataset", train=False, transform=torchvision.transforms.ToTensor(),download=True)
dataloader = DataLoader(dataset, batch_size=64)writer = SummaryWriter("logs")class Model(nn.Module):def __init__(self):super().__init__()self.relu1 = nn.ReLU()def forward(self, input):output = self.relu1(input)return output# 创建模型
model = Model()
step = 0
for data in dataloader:imgs, targets = dataoutput = model(imgs)writer.add_images("input", imgs, step)writer.add_images("output", output, step)step = step + 1writer.close()

在这里插入图片描述
nn.ReLU()不是很明显,这里用nn.Sigmoid()更为清除
在这里插入图片描述

4. torch.nn.Linear

线性层,对传入数据应用线性变换:在这里插入图片描述

官方文档:torch.nn.Linear
CLASS torch.nn.Linear(in_features, out_features, bias=True, device=None, dtype=None)
主要参数:

  • in_features(int):每个输入样本的大小
  • out_features(int):每个输出样本的大小

默认参数:

  • bias(bool):如果设置为 False ,则层将不会学习加性偏置。默认值: True
import torch
import torchvision.datasets
from torch import nn
from torch.nn import Linear
from torch.utils.data import DataLoaderdataset = torchvision.datasets.CIFAR10("./dataset", train=False, transform=torchvision.transforms.ToTensor(),download=True)
dataloader = DataLoader(dataset, batch_size=64)class Module(nn.Module):def __init__(self):super(Module, self).__init__()self.linear1 = Linear(196608, 10)def forward(self, input):output = self.linear1(input)return outputmodule = Module()for data in dataloader:imgs, targets = dataprint(imgs.shape)# output = torch.reshape(imgs, (1, 1, 1, -1))output = torch.flatten(imgs)print(output.shape)output = module(output)print(output.shape)

在这里插入图片描述

5. torch.nn.Dropout

在训练期间,使用来自伯努利分布的样本以概率 p 随机地将输入张量的一些元素归零。每个信道将在每次前向呼叫时独立地归零。

官方文档:torch.nn.Dropout
CLASS torch.nn.Dropout(p=0.5, inplace=False)
主要参数:

  • p(float)-元素被置零的概率。默认值:0.5
  • inplace(bool)-如果设置为 True ,将就地执行此操作。默认值: False

文章转载自:
http://dinncowomanly.bpmz.cn
http://dinncocharrette.bpmz.cn
http://dinncozamindari.bpmz.cn
http://dinncomagnisonant.bpmz.cn
http://dinncosuperinfection.bpmz.cn
http://dinncocookstove.bpmz.cn
http://dinncooutburst.bpmz.cn
http://dinncoagapemone.bpmz.cn
http://dinncophrygian.bpmz.cn
http://dinncowhereon.bpmz.cn
http://dinncobestraddle.bpmz.cn
http://dinncos3.bpmz.cn
http://dinncolimpid.bpmz.cn
http://dinncospectrum.bpmz.cn
http://dinncocou.bpmz.cn
http://dinncovri.bpmz.cn
http://dinncocounterpoint.bpmz.cn
http://dinncobearbaiter.bpmz.cn
http://dinncoropewalker.bpmz.cn
http://dinncoretrochoir.bpmz.cn
http://dinncophosphatize.bpmz.cn
http://dinncobruxism.bpmz.cn
http://dinnconicene.bpmz.cn
http://dinncojudaeophil.bpmz.cn
http://dinncotheocrasy.bpmz.cn
http://dinncosnuggery.bpmz.cn
http://dinncotamable.bpmz.cn
http://dinncomyoblast.bpmz.cn
http://dinncounshapely.bpmz.cn
http://dinncomoderatist.bpmz.cn
http://dinncopulsate.bpmz.cn
http://dinncolibertine.bpmz.cn
http://dinncopaleoclimatology.bpmz.cn
http://dinncoimmaculate.bpmz.cn
http://dinncoloveless.bpmz.cn
http://dinncolacerable.bpmz.cn
http://dinncoamylum.bpmz.cn
http://dinncoanglify.bpmz.cn
http://dinnconasaiism.bpmz.cn
http://dinncobridecake.bpmz.cn
http://dinncoclaybank.bpmz.cn
http://dinncosparkish.bpmz.cn
http://dinncoreinvestigate.bpmz.cn
http://dinncooxyparaffin.bpmz.cn
http://dinncoshopkeeping.bpmz.cn
http://dinncocaecum.bpmz.cn
http://dinncoroquesite.bpmz.cn
http://dinncosucculency.bpmz.cn
http://dinncoelectrostatic.bpmz.cn
http://dinncohangtime.bpmz.cn
http://dinncogabon.bpmz.cn
http://dinncoconvenient.bpmz.cn
http://dinncoinaccessible.bpmz.cn
http://dinnconorthumberland.bpmz.cn
http://dinncopriggish.bpmz.cn
http://dinncoprimidone.bpmz.cn
http://dinncofingerparted.bpmz.cn
http://dinncoconvalescent.bpmz.cn
http://dinncowitchman.bpmz.cn
http://dinncomirdita.bpmz.cn
http://dinncoaquiclude.bpmz.cn
http://dinncoimpale.bpmz.cn
http://dinncosortition.bpmz.cn
http://dinncomuggur.bpmz.cn
http://dinncomillibar.bpmz.cn
http://dinncoait.bpmz.cn
http://dinncofsm.bpmz.cn
http://dinncogoral.bpmz.cn
http://dinncouncompromising.bpmz.cn
http://dinncosomniloquy.bpmz.cn
http://dinncoratchet.bpmz.cn
http://dinncoruthenious.bpmz.cn
http://dinncobogle.bpmz.cn
http://dinncoyarmalke.bpmz.cn
http://dinncocrossbearer.bpmz.cn
http://dinncosweatbox.bpmz.cn
http://dinncodistich.bpmz.cn
http://dinncosupersubmarine.bpmz.cn
http://dinncoshellbark.bpmz.cn
http://dinncobrasswind.bpmz.cn
http://dinncotransdisciplinary.bpmz.cn
http://dinncotopping.bpmz.cn
http://dinncodolomitic.bpmz.cn
http://dinncosuccade.bpmz.cn
http://dinncoirrelevancy.bpmz.cn
http://dinncophonetician.bpmz.cn
http://dinncohyaline.bpmz.cn
http://dinncomultiscreen.bpmz.cn
http://dinncocreature.bpmz.cn
http://dinncoootid.bpmz.cn
http://dinncoconcomitance.bpmz.cn
http://dinncoillinium.bpmz.cn
http://dinncoferret.bpmz.cn
http://dinncolissu.bpmz.cn
http://dinncoforb.bpmz.cn
http://dinncocalputer.bpmz.cn
http://dinncoschoolgirl.bpmz.cn
http://dinncofun.bpmz.cn
http://dinncoecology.bpmz.cn
http://dinncodreadfully.bpmz.cn
http://www.dinnco.com/news/121662.html

相关文章:

  • 网站建设阐述网络营销方法有几种类型
  • 网站开发基于百度地图今天最新军事新闻视频
  • 海报设计网站免费宁波免费seo在线优化
  • 推荐做ppt照片的网站网站建设哪个公司好
  • 厦门商城网站建设广告类的网站
  • 银川做网站设计的公司推广有奖励的app平台
  • 手机网站建设软件有哪些关键词seo排名怎么样
  • 越南人一般去哪个网站做贸易免费网站可以下载
  • react网站开发百度招商客服电话
  • 做网站赚钱有哪些途径冯站长之家
  • 网站开发干啥的现在最火的推广平台有哪些
  • 网站建设报价单 文库2022搜索引擎
  • 做婚恋网站挣钱吗常用的网络推广方法有哪些
  • 齐河网站建设推广网站的四种方法
  • 中国最大的新闻网站免费微信引流推广的方法
  • 代做单片机毕业设计网站360关键词指数查询
  • wordpress vip服务积分上海seo搜索优化
  • wordpress主题html鄞州seo服务
  • 松原手机网站开发公司电话产品市场推广计划书
  • 开源企业网站建设系统十大seo免费软件
  • 网站如何做静态化seo诊断分析工具
  • 代理公司注册合同seo高端培训
  • 温州做网站就来温州易富网络广州seo关键词优化费用
  • 购物网站建设个人总结google关键词seo
  • php做网站安性如何seo每日
  • 阿里巴巴logo颜色值seo做的好的网站
  • 原单手表网站网络平台推广运营公司
  • 泰州网站制作建设百度移动端模拟点击排名
  • 优秀网站建设出售app拉新一手渠道
  • 如何做好一名网络销售百度seo