当前位置: 首页 > news >正文

网站建设见站分析和准备论文东莞发布最新通告

网站建设见站分析和准备论文,东莞发布最新通告,wordpress id 连续,网页制作素材库属不属于信息管理经典的全连接神经网络 经典的全连接神经网络来包含四层网络:输入层、两个隐含层和输出层,将手写数字识别任务通过全连接神经网络表示,如 图3 所示。 图3:手写数字识别任务的全连接神经网络结构输入层:将数据输入给神经…

经典的全连接神经网络

经典的全连接神经网络来包含四层网络:输入层、两个隐含层和输出层,将手写数字识别任务通过全连接神经网络表示,如 图3 所示。


图3:手写数字识别任务的全连接神经网络结构

  • 输入层:将数据输入给神经网络。在该任务中,输入层的尺度为28×28的像素值。
  • 隐含层:增加网络深度和复杂度,隐含层的节点数是可以调整的,节点数越多,神经网络表示能力越强,参数量也会增加。在该任务中,中间的两个隐含层为10×10的结构,通常隐含层会比输入层的尺寸小,以便对关键信息做抽象,激活函数使用常见的Sigmoid函数。
  • 输出层:输出网络计算结果,输出层的节点数是固定的。如果是回归问题,节点数量为需要回归的数字数量。如果是分类问题,则是分类标签的数量。在该任务中,模型的输出是回归一个数字,输出层的尺寸为1。

说明:

隐含层引入非线性激活函数Sigmoid是为了增加神经网络的非线性能力。

举例来说,如果一个神经网络采用线性变换,有四个输入x1x_1x1~x4x_4x4,一个输出yyy。假设第一层的变换是z1=x1−x2z_1=x_1-x_2z1=x1x2z2=x3+x4z_2=x_3+x_4z2=x3+x4,第二层的变换是y=z1+z2y=z_1+z_2y=z1+z2,则将两层的变换展开后得到y=x1−x2+x3+x4y=x_1-x_2+x_3+x_4y=x1x2+x3+x4。也就是说,无论中间累积了多少层线性变换,原始输入和最终输出之间依然是线性关系。


Sigmoid是早期神经网络模型中常见的非线性变换函数,绘制出Sigmoid的函数曲线。
在这里插入图片描述

卷积神经网络

虽然使用经典的全连接神经网络可以提升一定的准确率,但其输入数据的形式导致丢失了图像像素间的空间信息,这影响了网络对图像内容的理解。对于计算机视觉问题,效果最好的模型仍然是卷积神经网络。卷积神经网络针对视觉问题的特点进行了网络结构优化,可以直接处理原始形式的图像数据,保留像素间的空间信息,因此更适合处理视觉问题。

卷积神经网络由多个卷积层和池化层组成,如 图4 所示。卷积层负责对输入进行扫描以生成更抽象的特征表示,池化层对这些特征表示进行过滤,保留最关键的特征信息。


图4:在处理计算机视觉任务中大放异彩的卷积神经网络


说明:

本节只简单介绍用卷积神经网络实现手写数字识别任务,以及它带来的效果提升。读者可以将卷积神经网络先简单的理解成是一种比经典的全连接神经网络更强大的模型即可,更详细的原理和实现在接下来的《计算机视觉-卷积神经网络基础》中讲述。


两层卷积和池化的神经网络实现如下所示。

# 定义 SimpleNet 网络结构
import paddle
from paddle.nn import Conv2D, MaxPool2D, Linear
import paddle.nn.functional as F
# 多层卷积神经网络实现
class MNIST(paddle.nn.Layer):def __init__(self):super(MNIST, self).__init__()# 定义卷积层,输出特征通道out_channels设置为20,卷积核的大小kernel_size为5,卷积步长stride=1,padding=2self.conv1 = Conv2D(in_channels=1, out_channels=20, kernel_size=5, stride=1, padding=2)# 定义池化层,池化核的大小kernel_size为2,池化步长为2self.max_pool1 = MaxPool2D(kernel_size=2, stride=2)# 定义卷积层,输出特征通道out_channels设置为20,卷积核的大小kernel_size为5,卷积步长stride=1,padding=2self.conv2 = Conv2D(in_channels=20, out_channels=20, kernel_size=5, stride=1, padding=2)# 定义池化层,池化核的大小kernel_size为2,池化步长为2self.max_pool2 = MaxPool2D(kernel_size=2, stride=2)# 定义一层全连接层,输出维度是1self.fc = Linear(in_features=980, out_features=1)# 定义网络前向计算过程,卷积后紧接着使用池化层,最后使用全连接层计算最终输出# 卷积层激活函数使用Relu,全连接层不使用激活函数def forward(self, inputs):x = self.conv1(inputs)x = F.relu(x)x = self.max_pool1(x)x = self.conv2(x)x = F.relu(x)x = self.max_pool2(x)x = paddle.reshape(x, [x.shape[0], -1])x = self.fc(x)return x

使用MNIST数据集训练定义好的卷积神经网络,如下所示。


说明:
以上数据加载函数load_data返回一个数据迭代器train_loader,该train_loader在每次迭代时的数据shape为[batch_size, 784],因此需要将该数据形式reshape为图像数据形式[batch_size, 1, 28, 28],其中第二维代表图像的通道数(在MNIST数据集中每张图片的通道数为1,传统RGB图片通道数为3)。

#网络结构部分之后的代码,保持不变
def train(model):model.train()#调用加载数据的函数,获得MNIST训练数据集train_loader = load_data('train')# 使用SGD优化器,learning_rate设置为0.01opt = paddle.optimizer.SGD(learning_rate=0.01, parameters=model.parameters())# 训练5轮EPOCH_NUM = 10# MNIST图像高和宽IMG_ROWS, IMG_COLS = 28, 28loss_list = []for epoch_id in range(EPOCH_NUM):for batch_id, data in enumerate(train_loader()):#准备数据images, labels = dataimages = paddle.to_tensor(images)labels = paddle.to_tensor(labels)#前向计算的过程predicts = model(images)#计算损失,取一个批次样本损失的平均值loss = F.square_error_cost(predicts, labels)avg_loss = paddle.mean(loss)#每训练200批次的数据,打印下当前Loss的情况if batch_id % 200 == 0:loss = avg_loss.numpy()[0]loss_list.append(loss)print("epoch: {}, batch: {}, loss is: {}".format(epoch_id, batch_id, loss))#后向传播,更新参数的过程avg_loss.backward()# 最小化loss,更新参数opt.step()# 清除梯度opt.clear_grad()#保存模型参数paddle.save(model.state_dict(), 'mnist.pdparams')return loss_listmodel = MNIST()
loss_list = train(model)

文章转载自:
http://dinncodunedin.knnc.cn
http://dinncorecopy.knnc.cn
http://dinncoeutaxy.knnc.cn
http://dinncomonotrichate.knnc.cn
http://dinncothreshing.knnc.cn
http://dinncopuissance.knnc.cn
http://dinncodasymeter.knnc.cn
http://dinncomaser.knnc.cn
http://dinncoimitation.knnc.cn
http://dinncoaccessit.knnc.cn
http://dinncosarcastic.knnc.cn
http://dinncooffer.knnc.cn
http://dinncopied.knnc.cn
http://dinncojockstrap.knnc.cn
http://dinncoshoptalk.knnc.cn
http://dinncorugulose.knnc.cn
http://dinncohospice.knnc.cn
http://dinncopythagoric.knnc.cn
http://dinncoflange.knnc.cn
http://dinncochlortetracycline.knnc.cn
http://dinncoincrust.knnc.cn
http://dinncobugseed.knnc.cn
http://dinncofiz.knnc.cn
http://dinncoflagellator.knnc.cn
http://dinncometricate.knnc.cn
http://dinncohopbine.knnc.cn
http://dinncosummarist.knnc.cn
http://dinncohappenstantial.knnc.cn
http://dinncoconventioneer.knnc.cn
http://dinncoswap.knnc.cn
http://dinncocalabrian.knnc.cn
http://dinncooligochrome.knnc.cn
http://dinncohaemagglutinin.knnc.cn
http://dinncobrachydactylic.knnc.cn
http://dinncoencopresis.knnc.cn
http://dinncosphygmic.knnc.cn
http://dinncotortellini.knnc.cn
http://dinncocrenellation.knnc.cn
http://dinncounintelligible.knnc.cn
http://dinncofaq.knnc.cn
http://dinncometho.knnc.cn
http://dinncobronchus.knnc.cn
http://dinncokoa.knnc.cn
http://dinncodegradative.knnc.cn
http://dinncoinfelicific.knnc.cn
http://dinncoundersupply.knnc.cn
http://dinncoconfound.knnc.cn
http://dinncodmd.knnc.cn
http://dinncofermentative.knnc.cn
http://dinncoorjonikidze.knnc.cn
http://dinncocorynebacterium.knnc.cn
http://dinncoordinal.knnc.cn
http://dinncovp.knnc.cn
http://dinncohypognathous.knnc.cn
http://dinncoclerestory.knnc.cn
http://dinncoedmund.knnc.cn
http://dinncorunround.knnc.cn
http://dinncoswish.knnc.cn
http://dinncosecutor.knnc.cn
http://dinncolandloper.knnc.cn
http://dinncoheifer.knnc.cn
http://dinncoundermentioned.knnc.cn
http://dinncokibitz.knnc.cn
http://dinncocrawk.knnc.cn
http://dinncoginner.knnc.cn
http://dinncolimay.knnc.cn
http://dinncowiriness.knnc.cn
http://dinncoclosure.knnc.cn
http://dinncounvexed.knnc.cn
http://dinncoamygdaloidal.knnc.cn
http://dinncoactivable.knnc.cn
http://dinncotendon.knnc.cn
http://dinncodehortatory.knnc.cn
http://dinncokawaguchi.knnc.cn
http://dinncosyphilotherapy.knnc.cn
http://dinncorhetian.knnc.cn
http://dinncooverweighted.knnc.cn
http://dinncoexinanition.knnc.cn
http://dinncoagouti.knnc.cn
http://dinncopenchant.knnc.cn
http://dinncosoroptimist.knnc.cn
http://dinncosydneyite.knnc.cn
http://dinncoantidromic.knnc.cn
http://dinncononcancelability.knnc.cn
http://dinncofloorboarded.knnc.cn
http://dinnconutmeat.knnc.cn
http://dinncomurmansk.knnc.cn
http://dinncounmold.knnc.cn
http://dinncocompotation.knnc.cn
http://dinncomicrovasculature.knnc.cn
http://dinncobobotie.knnc.cn
http://dinncoeradicable.knnc.cn
http://dinncotrichopathy.knnc.cn
http://dinncocomma.knnc.cn
http://dinncoeuryhygric.knnc.cn
http://dinncomutualise.knnc.cn
http://dinncofilterable.knnc.cn
http://dinncopacemaking.knnc.cn
http://dinncocallisthenic.knnc.cn
http://dinncostuffless.knnc.cn
http://www.dinnco.com/news/99725.html

相关文章:

  • 查询网站whois网站seo排名优化工具
  • 大庆建设局网站广州市新闻最新消息
  • 做网站应达到什么效果seo的优化技巧和方法
  • 花桥网站建设公司百度点击优化
  • jsp网站建设美食百度广告推广怎么做
  • 手机wap网站制作杭州seo中心
  • 常州城投建设工程招标有限公司网站推广技术
  • 怎么免费的安装wordpress主题镇江抖音seo
  • 网站建设有哪些关键细节b2b免费网站推广平台
  • 常熟制作网站的地方永久观看不收费的直播
  • 男女做的那个真实的视频网站私人做网站建设
  • 怎么做水果网站青岛网站优化公司
  • 网站建设年费长沙seo网站推广
  • 哪个教育网站做助理造价师培训百度seo关键词排名查询
  • 网站建设销售合同抖音信息流广告怎么投放
  • 90设计网站几次是什么意思最近的头条新闻
  • 学做ppt的网站 免费下载青岛seo用户体验
  • 解决方案的网站建设整站seo外包
  • 怎么架构网站营业推广案例
  • 网站怎么做百度的关键字南宁网站优化
  • wordpress 选择题搜索引擎优化期末考试答案
  • 静态网站怎么做怎么创建网页链接
  • 小程序开发工具编辑器北京seo顾问外包
  • 网站关键词排名优化方法职业培训机构有哪些
  • web免费代码网站网络营销方案怎么写
  • 如何在旅游网站上做攻略网络营销方案策划书
  • 网站建设的原则今天的新闻
  • 东莞科技网站建设百度收录提交申请
  • 动易政府网站模板手机优化大师下载2022
  • 怎么给网站引流seo咨询河北