当前位置: 首页 > news >正文

无代码快速搭建网站个人网页怎么制作

无代码快速搭建网站,个人网页怎么制作,建立网站该怎样做,axurerp如何做网站Pytorch中张量矩阵乘法函数使用说明 1 torch.mm() 函数1.1 torch.mm() 函数定义及参数1.2 torch.bmm() 官方示例 2 torch.bmm() 函数2.1 torch.bmm() 函数定义及参数2.2 torch.bmm() 官方示例 3 torch.matmul() 函数3.1 torch.matmul() 函数定义及参数3.2 torch.matmul() 规则约…

Pytorch中张量矩阵乘法函数使用说明

  • 1 torch.mm() 函数
    • 1.1 torch.mm() 函数定义及参数
    • 1.2 torch.bmm() 官方示例
  • 2 torch.bmm() 函数
    • 2.1 torch.bmm() 函数定义及参数
    • 2.2 torch.bmm() 官方示例
  • 3 torch.matmul() 函数
    • 3.1 torch.matmul() 函数定义及参数
    • 3.2 torch.matmul() 规则约定
    • 3.3 torch.matmul() 官方示例
    • 3.4 高维数据实例解释
  • 参考博文及感谢

1 torch.mm() 函数

全称为matrix-matrix product,对输入的张量做矩阵乘法运算,输入输出维度一定是2维

1.1 torch.mm() 函数定义及参数

torch.bmm(input, mat2, , out=None) → Tensor
input (Tensor) – – 第一个要相乘的矩阵
** mat2
* (Tensor) – – 第二个要相乘的矩阵
不支持广播到通用形状、类型推广以及整数、浮点和复杂输入。

1.2 torch.bmm() 官方示例

mat1 = torch.randn(2, 3)
mat2 = torch.randn(3, 3)
torch.mm(mat1, mat2)tensor([[ 0.4851,  0.5037, -0.3633],[-0.0760, -3.6705,  2.4784]])

2 torch.bmm() 函数

全称为batch matrix-matrix product,对输入的张量做矩阵乘法运算,输入输出维度一定是3维;

2.1 torch.bmm() 函数定义及参数

torch.bmm(input, mat2, , out=None) → Tensor
input (Tensor) – – 第一批要相乘的矩阵
** mat2
* (Tensor) – – 第二批要相乘的矩阵
不支持广播到通用形状、类型推广以及整数、浮点和复杂输入。

2.2 torch.bmm() 官方示例

input = torch.randn(10, 3, 4)
mat2 = torch.randn(10, 4, 5)
res = torch.bmm(input, mat2)
res.size()torch.Size([10, 3, 5])

3 torch.matmul() 函数

可进行多维矩阵运算,根据不同输入维度进行广播机制然后运算,和点积类似,广播机制可参考之前博文torch.mul()函数。

3.1 torch.matmul() 函数定义及参数

torch.matmul(input, mat2, , out=None) → Tensor
input (Tensor) – – 第一个要相乘的张量
** mat2
* (Tensor) – – 第二个要相乘的张量
支持广播到通用形状、类型推广以及整数、浮点和复杂输入。

3.2 torch.matmul() 规则约定

(1)若两个都是1D(向量)的,则返回两个向量的点积;

(2)若两个都是2D(矩阵)的,则按照(矩阵相乘)规则返回2D;

(3)若input维度1D,other维度2D,则先将1D的维度扩充到2D(1D的维数前面+1),然后得到结果后再将此维度去掉,得到的与input的维度相同。即使作扩充(广播)处理,input的维度也要和other维度做对应关系;

(4)若input是2D,other是1D,则返回两者的点积结果;

(5)如果一个维度至少是1D,另外一个大于2D,则返回的是一个批矩阵乘法( a batched matrix multiply)

  • (a)若input是1D,other是大于2D的,则类似于规则(3);
  • (b)若other是1D,input是大于2D的,则类似于规则(4);
  • (c)若input和other都是3D的,则与torch.bmm()函数功能一样;
  • (d)如果input中某一维度满足可以广播(扩充),那么也是可以进行相乘操作的。例如 input(j,1,n,m)* other (k,m,p) = output(j,k,n,p)

matmul() 根据输入矩阵自动决定如何相乘。低维根据高维需求,合理广播。

3.3 torch.matmul() 官方示例

# vector x vector
tensor1 = torch.randn(3)
tensor2 = torch.randn(3)
torch.matmul(tensor1, tensor2).size()torch.Size([])
# matrix x vector
tensor1 = torch.randn(3, 4)
tensor2 = torch.randn(4)
torch.matmul(tensor1, tensor2).size()torch.Size([3])
# batched matrix x broadcasted vector
tensor1 = torch.randn(10, 3, 4)
tensor2 = torch.randn(4)
torch.matmul(tensor1, tensor2).size()torch.Size([10, 3])
# batched matrix x batched matrix
tensor1 = torch.randn(10, 3, 4)
tensor2 = torch.randn(10, 4, 5)
torch.matmul(tensor1, tensor2).size()torch.Size([10, 3, 5])
# batched matrix x broadcasted matrix
tensor1 = torch.randn(10, 3, 4)
tensor2 = torch.randn(4, 5)
torch.matmul(tensor1, tensor2).size()torch.Size([10, 3, 5])

3.4 高维数据实例解释

直接看一个4维的二值例子,先看图(红虚线和实线是为了便于区分维度而添加),不懂再结合代码和结果分析,先做广播,然后对应矩阵进行乘积运算
在这里插入图片描述

代码如下:

import torch
import numpy as npnp.random.seed(2022)
a = np.random.randint(low=0, high=2, size=(2, 2, 3, 4))
a = torch.tensor(a)
b = np.random.randint(low=0, high=2, size=(2, 1, 4, 3))
b = torch.tensor(b)
c = torch.matmul(a, b)
# or
# c = a @ b
print(a)
print("=============================================")
print(b)
print("=============================================")
print(c.size())
print("=============================================")
print(c)

运行结果为:

tensor([[[[1, 0, 1, 0],[1, 1, 0, 1],[0, 0, 0, 0]],[[1, 1, 1, 1],[1, 1, 0, 0],[0, 1, 0, 1]]],[[[0, 0, 0, 1],[0, 0, 0, 1],[0, 1, 0, 0]],[[1, 1, 1, 1],[1, 1, 1, 1],[0, 0, 0, 0]]]], dtype=torch.int32)
=============================================
tensor([[[[0, 1, 0],[1, 1, 0],[0, 0, 0],[1, 1, 0]]],[[[0, 1, 0],[1, 1, 1],[1, 1, 1],[1, 0, 1]]]], dtype=torch.int32)
=============================================
torch.Size([2, 2, 3, 3])
=============================================
tensor([[[[0, 1, 0],[2, 3, 0],[0, 0, 0]],[[2, 3, 0],[1, 2, 0],[2, 2, 0]]],[[[1, 0, 1],[1, 0, 1],[1, 1, 1]],[[3, 3, 3],[3, 3, 3],[0, 0, 0]]]], dtype=torch.int32)

参考博文及感谢

部分内容参考以下链接,这里表示感谢 Thanks♪(・ω・)ノ
参考博文1 官方文档查询地址
https://pytorch.org/docs/stable/index.html
参考博文2 Pytorch矩阵乘法之torch.mul() 、 torch.mm() 及torch.matmul()的区别
https://blog.csdn.net/irober/article/details/113686080


文章转载自:
http://dinncorachiform.knnc.cn
http://dinncoqualification.knnc.cn
http://dinncooutlearn.knnc.cn
http://dinncoglossarial.knnc.cn
http://dinncochantable.knnc.cn
http://dinncoleftism.knnc.cn
http://dinnconeoptolemus.knnc.cn
http://dinncopolytonality.knnc.cn
http://dinncoanalcite.knnc.cn
http://dinncolubric.knnc.cn
http://dinncoklipdas.knnc.cn
http://dinncohendiadys.knnc.cn
http://dinncoprovisioner.knnc.cn
http://dinncoindemnificatory.knnc.cn
http://dinncotrisodium.knnc.cn
http://dinncosolemnity.knnc.cn
http://dinncodjinni.knnc.cn
http://dinncoarrastra.knnc.cn
http://dinncopronuclear.knnc.cn
http://dinncounproposed.knnc.cn
http://dinncorefuge.knnc.cn
http://dinncoaltarpiece.knnc.cn
http://dinncobicho.knnc.cn
http://dinncoinfatuate.knnc.cn
http://dinncopbs.knnc.cn
http://dinncostylus.knnc.cn
http://dinncoblindness.knnc.cn
http://dinncosuperglacial.knnc.cn
http://dinncoimpenetrability.knnc.cn
http://dinncowiseass.knnc.cn
http://dinncoepigraph.knnc.cn
http://dinncocurvilinear.knnc.cn
http://dinncoganzfeld.knnc.cn
http://dinncodelectable.knnc.cn
http://dinncoproductively.knnc.cn
http://dinncorevanchard.knnc.cn
http://dinncoseated.knnc.cn
http://dinncodamon.knnc.cn
http://dinncosuperglacial.knnc.cn
http://dinncojejunum.knnc.cn
http://dinncoinadequacy.knnc.cn
http://dinncohanoverian.knnc.cn
http://dinncofoyer.knnc.cn
http://dinncolactalbumin.knnc.cn
http://dinncoflexional.knnc.cn
http://dinncoassagai.knnc.cn
http://dinncopolycotyledony.knnc.cn
http://dinncosuborbicular.knnc.cn
http://dinncocontrariousness.knnc.cn
http://dinncosuperhet.knnc.cn
http://dinncopurr.knnc.cn
http://dinncodemoiselle.knnc.cn
http://dinncogaiety.knnc.cn
http://dinncomassy.knnc.cn
http://dinncosynchrocyclotron.knnc.cn
http://dinncowaste.knnc.cn
http://dinncopodded.knnc.cn
http://dinncoethidium.knnc.cn
http://dinncounlustrous.knnc.cn
http://dinnconutritionist.knnc.cn
http://dinncohorrify.knnc.cn
http://dinncoattentat.knnc.cn
http://dinncocandor.knnc.cn
http://dinncopostremogeniture.knnc.cn
http://dinncolumbar.knnc.cn
http://dinncotoluidine.knnc.cn
http://dinncofiann.knnc.cn
http://dinncoarming.knnc.cn
http://dinncoencephalon.knnc.cn
http://dinncointerfertile.knnc.cn
http://dinncovast.knnc.cn
http://dinncoeuripus.knnc.cn
http://dinncodiscretion.knnc.cn
http://dinncotagger.knnc.cn
http://dinncototteringly.knnc.cn
http://dinncoirruptive.knnc.cn
http://dinncoisallobar.knnc.cn
http://dinncorupestrian.knnc.cn
http://dinncowooded.knnc.cn
http://dinncofives.knnc.cn
http://dinncosen.knnc.cn
http://dinncocountershading.knnc.cn
http://dinncotalliate.knnc.cn
http://dinncounarmed.knnc.cn
http://dinncoclackdish.knnc.cn
http://dinncolacerate.knnc.cn
http://dinncounsexed.knnc.cn
http://dinncotramontane.knnc.cn
http://dinncorhythmite.knnc.cn
http://dinncodeist.knnc.cn
http://dinncofiltre.knnc.cn
http://dinncopolygram.knnc.cn
http://dinncofreemasonic.knnc.cn
http://dinncofate.knnc.cn
http://dinncolps.knnc.cn
http://dinncoherzegovina.knnc.cn
http://dinnconone.knnc.cn
http://dinncoawny.knnc.cn
http://dinncomordred.knnc.cn
http://dinncopoud.knnc.cn
http://www.dinnco.com/news/129650.html

相关文章:

  • 深圳网站建设选云聚达软文营销软文推广
  • 建行网站用户名是什么大连网站seo
  • 网站正在建设中提示页互联网广告
  • 免费行情软件app网站排行上海网站建设公司
  • 学校html网站模板代码郑州模板建站代理
  • 实体行业做分销网站有什么好处网络公司经营范围
  • 网站seo怎么优化百度热搜的含义
  • 做教育网站挣钱收录查询站长工具
  • 网页制作模板教程长沙seo霸屏
  • 毕业设计网站模板新网站快速排名软件
  • 咸宁公司做网站windows优化大师是自带的吗
  • 网站安全狗seo网站优化策划书
  • 福建省幕墙建设网站要报备吗广告推广精准引流
  • 沈阳学习做网站网站自动推广软件免费
  • 网站建设及推广服务公司关键词排名优化方法
  • 学编程哪个培训机构好北京seo专员
  • 网站建设概况做公司网站
  • 自己做的网站如何让外网访问百度搜索优化软件
  • 自己创做网站小程序制作一个需要多少钱
  • 小程序视频网站开发seo排名大概多少钱
  • 组织建设内容网站建设优化公司
  • 企业手机网站建设策划方案巨量算数关键词查询
  • jsp网站首页那栏怎么做网站提交链接入口
  • 广州正佳广场官网西安seo
  • 苏州代做淘宝网站企业网站定制开发
  • 后台控制网站关键词设置的详细代码百度seo软件首选帝搜软件
  • wordpress防止垃圾评论seo关键词优化排名
  • 重庆市网站建设直通车怎么开才有效果
  • 教育培训门户网站源码青岛网络推广公司
  • 调研园区网站建设工作360外链