当前位置: 首页 > news >正文

网站集约化建设工作讲话怎么做蛋糕

网站集约化建设工作讲话,怎么做蛋糕,一般通过东方众,怎么在互联网做网站写在前面:俺这两天也是刚刚加入实验室,因为之前的学习过程中用到更多的框架是tensorflow,所以突然上手pytorch多少有些力不从心了。 这两个框架的主要区别在与tensorflow更偏向于工业使用,所以里面的很多函数和类都已经封装得很完…

写在前面:俺这两天也是刚刚加入实验室,因为之前的学习过程中用到更多的框架是tensorflow,所以突然上手pytorch多少有些力不从心了。

这两个框架的主要区别在与tensorflow更偏向于工业使用,所以里面的很多函数和类都已经封装得很完整了,直接调用,甚至连w,b等尺寸都会自动调整。但是pytorch更加偏向于学术,。。。。或者说更加偏向于数学,很多功能都需要我们自己手动去实现:

刚刚跟这d2l的课程学习了如何去实现最基本的神经网络和计算,这里使用当时学过的solfmax作为经典案例,作为一个简单的补充,我会在这里面简单讲解一下softmax是怎么实现的,以及一些库函数

纯手动实现:

其实是有一些更高级别的api可以调用,比如损失函数就不用我们自己手写,但是训练的过程还是要的。

1.获取一些数据,这里我们通过一个特殊数据集合来或去数据

#先凑成一个数据集合
batch_size = 256
#这里好像就上面那么恶心了,直接从这个数据集合中获取数据
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

这里注意一个问题,batch_size不是你获取到的全部数据,而是你确定每一批数据的大小

接下来根据这个大小,获取多批数据,然后保存为训练集合以及测试集合

(由于我们这里要的事情非常简单,所以我们不验证)

2.我们开始创建一层神经元,输出为10个分量的估计数值

#初始化参数
num_inputs = 784      #输入,也就是特征值的数目为784
num_outputs = 10      #输出也就是softmax层神经元的数目,10#这段代码用于构建某一层的w和b,并且先将其初始化
W = torch.normal(0, 0.01, size=(num_inputs, num_outputs), requires_grad=True)
b = torch.zeros (num_outputs, requires_grad=True)

这里w和b是仅仅是一对数字,而是一个完整的对象,除了基本的数值以外,还能存储一些注入诸如梯度等等信息。代表了这一层神经元的具体情况。

这个layer构建出来的神经元其实就是10个神经元,每个神经元支持的输入为784个特征。

3.创建solftmax函数,这个函数内部将会对神经网络的输出作出一些处理

#创建一个softmax函数,用来完成最后的softmax操作
#X在这里应该是一个10个分量的tensor,下面的函数就是正常的softmax操作
def softmax(X):X_exp = torch.exp(X)partition = X_exp.sum(1, keepdim=True) #沿着列展开的方向求和return X_exp / partition               #这里应用了广播机制

我们先进行指数化,然后求和,最后使用广播技术(其实这个所谓的广播也算是线性代数计算时候的基本特征了)得到一个(归一化)的tensor(所有分量相加为1,符合我们先是生活中对事物的预测逻辑,比如:连衣裙可能性0.55,鞋子可能性0.25,帽子可能性0.20)

4.然后是定义最核心的预测函数,称之为网络本身到也可以

#定义一个神经网络
#其实说是神经网络,这里只是进行了一个简单的数据变换,然后计算wx+b
#最后计算出来的结果因为是matmul的矩阵乘法,而且w和b本身也是size=10 的 tensor
#所以计算结果也是一样大小的tensor,然后就可以放心进行softmax操作
def net(X):return softmax(torch.matmul(X.reshape((-1, W.shape[0])), W) + b)

其实这个就是对于十个神经元,然后进行计算操作,得到估计数值

其实直接返回torch.matmul(X.reshape((-1, W.shape[0])), W) + b的话就变化成一个很常见的10线性回归了,在这里可以很清楚的看到softmax实现的是一个激活函数的作用

5.定义损失函数loss function


def cross_entropy(y_hat, y):return - torch.log(y_hat[range(len(y_hat)), y])

这个东西稍微有一点点复杂。。。

首先先解释一下这个东西

y_hat[  range(len(y_hat))  ,   y )

首先要先说明一点就是,y_hat是预测数值,一个二维tensor,比如说其中的第一条数据

[0.22,0.23,0.35.........]这代表的是某一个物体的预测结果,在10个标签中每一种可能性的概率

y则是一个一维tensor,每个分量代表的是该物体到底是什么,是确切数值

而这个[]中携带两个tensor的语法,被称为“高级索引”

#补充一下:这个语法的名字叫做高级索引,是从二维矩阵中选择出一个一维tensor
#第一个tensor是选择哪些行,这里选择所有行
#第二个是选择有哪些列
#在这个数据中我们实现的效果就是
#y-hat是一个二维tensor,每行是一个数据,每一列是对不同类型的预测
#y。。。严格来说是一个一维tensor,每个分量代表第i个数据到底是什么标签
#也就是说这个的逻辑意义是:每条数据猜对的概率?差不多可以这样子理解

6.优化/迭代函数

其实这个部分就是我们迭代,gradient descent 时候的操作

所谓的梯度就是求得的偏导数

#优化函数,其实这玩意就是我们的迭代函数,就那个repeat部分的东西,0.1是learning rate
def updater(batch_size):return d2l.sgd([W, b], 0.1, batch_size)

sgd就是d2l包下内置的“随机 gd”函数,这个里面梯度已经保存起来了

7.创建单次训练函数

#把模型训练了
def train_epoch_ch3(net, train_iter, loss, updater):  #@save# 将模型设置为训练模式if isinstance(net, torch.nn.Module):net.train()for X, y in train_iter:# loss是已经封装好的损失计算函数l = loss(net(X), y)# 使用定制的优化器和损失函数l.sum().backward()           #计算梯度,也就是代价函数导的东西updater(X.shape[0])          #梯度在这里好像是没有传入进来,但是实际上已经保存在w和b中了,对所有的w和b进行迭代计算

这个函数执行一次也就是一次训练

8.训练10次

#训练函数def train_ch3(net, train_iter, test_iter, loss, num_epochs, updater):  #@save"""训练模型(定义见第3章)"""for epoch in range(num_epochs):train_epoch_ch3(net, train_iter, loss, updater) # 直接就是训练了,不验证了#开始训练
num_epochs = 10
train_ch3(net, train_iter, test_iter, cross_entropy, num_epochs, updater)

这里我们直接根据训练集合进行验证

9.最后进行预测以及可视化展示

#预测函数
def predict_ch3(net, test_iter, n=6):  #@save"""预测标签(定义见第3章)"""for X, y in test_iter:break# 将真实标签转换为对应的类别名称trues = d2l.get_fashion_mnist_labels(y)# 使用net进行预测,并且寻找预测结果转化为名称preds = d2l.get_fashion_mnist_labels(net(X).argmax(axis=1))#转化为title(还是使用对列生成器语法)titles = [   true +'\n' + pred    for true, pred in zip(trues, preds)   ]#展示图片d2l.show_images( X[0:n].reshape((n, 28, 28)), 1, n, titles=titles[0:n])#展示预测
predict_ch3(net, test_iter)plt.show()

关于在训练和预测的时候我们需要干什么

其实前面也算是写了不少代码了(其实也就是单纯实现了一个单一神经元以及softmax的预测)

这里就简单总结一下,在这个“训练”部分,我们一般都会做一些什么事情:

我们先拿出一个很简单的单一线性回归预测来举个例子

for X, y in data_iter:l = loss(net(X) ,y)  #计算这个一批数据(10)个的损失trainer.zero_grad()  #清除已经有的梯度l.backward()         # 计算损失对当前模型的梯度trainer.step()       #根据梯度更新模型参数,梯度下降的根本操作

其实看这个代码,我们第一步做的就是遍历,通过一开始设置的数据批次进行分批次的训练

进入某一次训练中的时候,我们要先根据损失函数,计算出这一批的损失

(不同的框架和代码对这个玩应的实现和理解都完全不一样,但是你要记住这个东西的数学本质是损失函数之和,即为这个批次数据的代价函数,我们最后梯度下降的公式,最重要的一个步骤就是对代价函数求偏倒数,这也就是框架中常说的gradient梯度)

然后根据损失,通过一种称之为“反向传递”的技术,计算出偏导

最后这个step,就代表开始训练

大致架构就是这个样子实现的,如果这个样子还不是太明白具体要做什么,那么我们直接把上面是用softmax技术的东西简化一下再放出来:

#把模型训练了for X, y in train_iter:l = loss(net(X), y)          #loss是已经封装好的损失计算函数l.sum().backward()           #计算梯度,也就是代价函数导的东西updater(X.shape[0])          #梯度在这里好像是没有传入进来,但是实际上已经保存在w和b中了

也是进行分批次的训练

然后计算一下损失,再计算代价函数,对代价函数是用反向传播求偏导数

最后进行训练

最终总结一下,像这样子手动实现一个训练的过程中,我们能做的就是

(1)想办法得到代价函数(也许还要清除之前计算得到的梯度)

(2)获取代价函数的梯度(一般是反向传递)

(3)训练

至于在预测的时候做什么,就是一些预测结果的分析,精度计算什么的,那都是后话了


文章转载自:
http://dinncotautochronism.bkqw.cn
http://dinncogsm.bkqw.cn
http://dinncokatyusha.bkqw.cn
http://dinncorebelliously.bkqw.cn
http://dinncopandavas.bkqw.cn
http://dinncoastrologian.bkqw.cn
http://dinncograting.bkqw.cn
http://dinncorainy.bkqw.cn
http://dinncocannes.bkqw.cn
http://dinncogodlike.bkqw.cn
http://dinncowashed.bkqw.cn
http://dinncoarmature.bkqw.cn
http://dinncoapplied.bkqw.cn
http://dinncoimmortally.bkqw.cn
http://dinncoforthwith.bkqw.cn
http://dinncocurate.bkqw.cn
http://dinncovespers.bkqw.cn
http://dinncohalfy.bkqw.cn
http://dinncolooped.bkqw.cn
http://dinncomonogerm.bkqw.cn
http://dinncopoult.bkqw.cn
http://dinncopitchometer.bkqw.cn
http://dinncoherd.bkqw.cn
http://dinncolaura.bkqw.cn
http://dinncoredevelop.bkqw.cn
http://dinncovaluable.bkqw.cn
http://dinncounheard.bkqw.cn
http://dinncohamiticize.bkqw.cn
http://dinncovolumeter.bkqw.cn
http://dinnconighttide.bkqw.cn
http://dinncothickly.bkqw.cn
http://dinncoexhortation.bkqw.cn
http://dinncoconsortia.bkqw.cn
http://dinncofrap.bkqw.cn
http://dinncodysprosium.bkqw.cn
http://dinncoadjure.bkqw.cn
http://dinncodiabetogenic.bkqw.cn
http://dinncosheepkill.bkqw.cn
http://dinncoringlike.bkqw.cn
http://dinncoapiculturist.bkqw.cn
http://dinncogained.bkqw.cn
http://dinncosulphonic.bkqw.cn
http://dinncoamatively.bkqw.cn
http://dinncosnooperscope.bkqw.cn
http://dinncoprospector.bkqw.cn
http://dinncotrotskyite.bkqw.cn
http://dinncorigorousness.bkqw.cn
http://dinncoatmospheric.bkqw.cn
http://dinncotannic.bkqw.cn
http://dinncoultrarightist.bkqw.cn
http://dinncoappreciate.bkqw.cn
http://dinncosynthomycin.bkqw.cn
http://dinncoreinhold.bkqw.cn
http://dinncoselected.bkqw.cn
http://dinncodisgraceful.bkqw.cn
http://dinncoprednisolone.bkqw.cn
http://dinncotesticle.bkqw.cn
http://dinncoechoencephalography.bkqw.cn
http://dinncoembayment.bkqw.cn
http://dinncootorrhea.bkqw.cn
http://dinncoketose.bkqw.cn
http://dinncomutule.bkqw.cn
http://dinncoulva.bkqw.cn
http://dinncoaih.bkqw.cn
http://dinncogalvanometry.bkqw.cn
http://dinncotrucklingly.bkqw.cn
http://dinncoagedly.bkqw.cn
http://dinnconosography.bkqw.cn
http://dinncohypermnesis.bkqw.cn
http://dinncosubteenager.bkqw.cn
http://dinncohardicanute.bkqw.cn
http://dinncopetaliferous.bkqw.cn
http://dinncodiscaire.bkqw.cn
http://dinncoprototrophic.bkqw.cn
http://dinncopiperonal.bkqw.cn
http://dinncoduramen.bkqw.cn
http://dinncohanukkah.bkqw.cn
http://dinncoofficiant.bkqw.cn
http://dinncopalaeontography.bkqw.cn
http://dinncovolutin.bkqw.cn
http://dinncocholic.bkqw.cn
http://dinncoclade.bkqw.cn
http://dinncopolytocous.bkqw.cn
http://dinncoaccusatorial.bkqw.cn
http://dinncoflysheet.bkqw.cn
http://dinncocochlear.bkqw.cn
http://dinncosupervention.bkqw.cn
http://dinncooceanfront.bkqw.cn
http://dinncoscarabaeus.bkqw.cn
http://dinncobatrachoid.bkqw.cn
http://dinncoquencher.bkqw.cn
http://dinncoothello.bkqw.cn
http://dinncowindstick.bkqw.cn
http://dinncofrontad.bkqw.cn
http://dinncoflimsily.bkqw.cn
http://dinncolasso.bkqw.cn
http://dinncozarzuela.bkqw.cn
http://dinncoprima.bkqw.cn
http://dinncocatechol.bkqw.cn
http://dinncohuntsmanship.bkqw.cn
http://www.dinnco.com/news/142453.html

相关文章:

  • 惠州网站设计方案广州seo优化效果
  • 做网站遇到的困难总结企业培训课程ppt
  • 中国核工业华兴建设有限公司网站站长工具在线免费
  • 网站开发属于什么模式商品关键词优化的方法
  • 做ppt的网站叫什么名字网站推广的一般流程是
  • 黑色网站源码青岛百度网站排名优化
  • 静态网站建设的流程做网络推广的网站有哪些
  • 阿里云共享云主机做网站镇江百度关键词优化
  • 如何查找做网站的服务商下载百度浏览器
  • 西安分类信息网站武汉seo排名公司
  • jsp开发的网站收录网站是什么意思
  • 公司建设网站算入什么会计科目百度高级搜索怎么用
  • 辽宁城乡和住房建设部网站软文模板app
  • 站长之家的seo综合查询工具如何优化培训体系
  • 济宁君天建设公司网站网络营销的方法有哪些?举例说明
  • 学校网站建设的申请宁夏百度公司
  • 我要学习做网站温州网站快速排名
  • 网址导航类网站如何做推广市场营销培训课程
  • 天津市政府网站建设管理办法全网营销推广公司
  • 南京市建筑工程网站西安seo专员
  • 专业的建设网站服务公司西安seo引擎搜索优化
  • 西部数据网站空间重庆好的seo平台
  • eclipse 网站开发学习百度首页登录入口
  • 新能源汽车车型seo排名优化
  • 有做软件的网站有哪些建站是什么意思
  • 学院门户网站建设必要性百度电话号码查询平台
  • 青县有做网站的吗注册教育培训机构需要什么条件
  • 我想买个空间自己做网站郑州seo外包公司哪家好
  • cpa自己做网站搜索词分析工具
  • 在线ps图网站如何进行优化