当前位置: 首页 > news >正文

做外贸都做哪些网站好免费下载宿迁网站建设制作

做外贸都做哪些网站好免费下载,宿迁网站建设制作,完善门户网站建设,杭州培训网站建设文章目录 序言相同点不同点测试实例应用 序言 .detach()和.data都可以用来分离tensor数据,下面进行比较pytorch0.4及之后的版本,.data仍保留,但建议使用.detach() 相同点 x.detach()和x.data返回和x相同数据的tensor,这个新的t…

文章目录

        • 序言
        • 相同点
        • 不同点
        • 测试实例
        • 应用

序言
  • .detach()和.data都可以用来分离tensor数据,下面进行比较
  • pytorch0.4及之后的版本,.data仍保留,但建议使用.detach()
相同点
  • x.detach()和x.data返回和x相同数据的tensor,这个新的tensor和原来的tensor共用数据,一者改变,另一者也会跟着改变
  • 新分离得到的tensor的requires_grad = False, 即不可求导的
不同点
  • (1) .data是一个属性,.detach()是一个方法
  • (2) x.data不能被autograd追踪求微分,即使被改了也能错误求导;x.detach()也不能被autograd追踪求微分,被改了会直接报错,避免错误的产生
  • (3) .data是不安全的,.detach()是安全的
测试实例
  • .data测试

    import torcha = torch.tensor([1 ,2 ,3.], requires_grad = True)  # float类型,支持求导
    out = a.sigmoid()
    print(out)    # 输出(0.0, 1.0)结果
    b = out.data  # 分离tensor
    b.zero_()     # 改变b的值,原来的out也会改变
    print(b.requires_grad)  # .data后requires_grad=False
    print(b)                # 归0后的值 tensor([0., 0., 0.])
    print(out.requires_grad)    # out的requires_grad=True
    print(out)                  # b的值改变了out也变了 tensor([0., 0., 0.])
    print("----------------------------------------------")out.sum().backward()  # 对原来的out求导
    print(a.grad)         # 不会报错,但结果不正确
    
    • 更改分离之后的变量值b,导致原来的张量out的值也跟着改变
    • 但是这种改变对于autograd是没有察觉的,它依然按照求导规则来求导,导致得出完全错误的导数值却浑然不知
    • 它的风险性就是如果我再任意一个地方更改了某一个张量,求导的时候也没有通知我已经在某处更改了,导致得出的导数值完全不正确
  • .detach()测试

    import torcha = torch.tensor([4, 5, 6.], requires_grad=True)
    out = a.sigmoid()
    print(out)
    c = out.detach()
    c.zero_()               # 改变c的值,原来的out也会改变
    print(c.requires_grad)  # detach后requires_grad=False
    print(c)                # 已经归0
    print(out.requires_grad)    # 输出为True
    print(out)
    print("----------------------------------------------")out.sum().backward()  # 对原来的out求导,
    print(a.grad)         # 此时会报错: 梯度计算所需要的张量已经被“原位操作inplace”所更改了# RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation
    
    • 更改分离之后的变量值c,导致原来的张量out的值也跟着改变
    • 这个时候如果依然按照求导规则来求导,由于out已经更改了,所以不会再继续求导了,而是报错,这样就避免了得出错误的求导结果
应用
  • forward时使用.data或.detach(),不进行梯度计算和梯度跟踪
  • backward时梯度回传,不能使用.detach()或.data,比如loss信息被detach的话就无法进行梯度回传更新参数,会导致模型无法收敛

 


【参考文章】
[1]. .detach和.data的区别和作用
[2]. .detach和.data的区别
[3]. .detach和.data求导时的区别

created by shuaixio, 2024.02.24

http://www.dinnco.com/news/53110.html

相关文章:

  • 做网站好还是做商城好怎样在百度做广告宣传
  • 设计网站首页要几天如何创建自己的个人网站
  • b2c网站制作建网站软件工具
  • 免费网站建站软件微信公众号小程序怎么做
  • 江宁网站建设报价出售网站平台
  • 网站开发 演讲山东seo费用多少
  • 广东专业做网站排名哪家好爱站网站长工具
  • 如何设置手机网站主页长沙靠谱seo优化费用
  • 网站上的信息可以做证据吗杭州seo百度关键词排名推广
  • 替别人做设计的网站域名查询网址
  • 水果网店网站建设策划书google推广工具
  • wordpress可以做手机网北京百度seo
  • 微信编辑器做网站网络营销的用户创造价值
  • 专业网站开发服务360优化大师旧版
  • 织梦手机网站怎么做公司怎么做网站推广
  • 晋江网站建设哪家好谷歌app下载 安卓
  • 合肥手机网站制作友情链接免费发布平台
  • 用户体验最好的网站全网营销整合推广
  • 怎样给响应式网站提速怎么优化网站排名才能起来
  • 美容整形网站模板千锋教育培训机构学费
  • 自己做网站用买域名吗百度互联网营销顾问
  • seo做论坛和企业网站差别淘宝关键词优化技巧教程
  • 长春有几个站可以坐火车谷歌浏览器chrome官网
  • 云南建个网站哪家便宜为什么打开网址都是站长工具
  • 网站的seo自己怎么做网站网页
  • 单位做网站资料需要什么软件关键词优化的最佳方法
  • 网站 个人 公司 区别是什么小学生班级优化大师
  • 网站介绍页面百度官方优化软件
  • 吴江经济开发区人才网seo内部优化具体做什么
  • 张掖网站建设公司长沙seo计费管理