当前位置: 首页 > news >正文

wordpress 织梦 米拓深圳seo优化推广公司

wordpress 织梦 米拓,深圳seo优化推广公司,seo实战密码第三版pdf下载,个人网站做导航网站1.RMS Normalization的原理 说RMS Normalization之前,先讲Layer Normalization 和 Batch Normalization。 BN和LN是两种常见的归一化方法。它们的目的是帮助模型训练更稳定、收敛更快。BN是在Batch维度上进行归一化,即对同一batch中每个特征维度的值进行…

1.RMS Normalization的原理

        说RMS Normalization之前,先讲Layer Normalization 和 Batch Normalization。

         BN和LN是两种常见的归一化方法。它们的目的是帮助模型训练更稳定、收敛更快。BN是在Batch维度上进行归一化,即对同一batch中每个特征维度的值进行归一化。LN则是在层的维度上进行归一化,即对每一个样本的特征进行归一化。

        RMS Normalization属于LN。

        再来说RMS Normalization和Layer Normalization。

        Layer Normalization:利用均值方差对特征进行归一化。

        RMS Normalization:利用均方根对特征进行归一化。

        LLaMA架构中采用RMS Normalization的原因是通过只计算均方根,从而减少计算量,同时在实验中也确实获得了更加稳定的训练。

        在这里插入一点NLP任务中,对于将特征进行“归一化”目的的一些个人小理解:在NLP中,使用Layer Normalization进行归一化是为了使输入特征在每一层的神经元中保持稳定的分布,避免特征值之间出现过大的波动。通过归一化,Layer Normalization 将特征重新调整为均值为 0、方差为 1 的分布,从而让模型的训练更加稳定和高效,使得数据变得更加“平滑”。这里的“平滑”是指数值的尺度更一致、更稳定,不会有特别大的数值差异,能够防止特征值在网络层中传递时变得过大或过小。这种一致性有助于缓解模型训练中的一些问题,如梯度爆炸梯度消失,并能让模型更容易优化。在使用RMS Normalization进行归一化则是直接使特征本身的数值变得更加“平滑”。

2.RMS Normalization公式

2.RMS Normalization的实现

        该函数在神经网络中需要对输入的数据进行处理,再输出相应的处理好的数据,对应的实现方式就用层来实现

        因为RMS Normalization属于LN,所以,x-->[batch_size, hidden_states]

import torchclass RMSNorm(torch.nn.Module):  # nn.Module是所有层的父类,层元素就必须继承nn.Moduledef __init__(self, dim, eps):  # 用于储存层的元素super().__init__()self.weight = torch.nn.Parameter(torch.ones(dim))  # 初始化权重参数self.eps = eps  # 防止根号下为0def _norm(self, x):  # 定义类函数里的方法("_"表示只在该类的内部调用)return x * torch.rsqrt(x.pow(2).mean(-1, keepdim=True) + self.eps)# x.pow(2):求平方# x.pow(2).mean(-1, keepdim=True):所有的平方求一个均值# x.pow(2).mean(-1, keepdim=True) + self.eps:加上一个防止根号下为0的元素# torch.rsqrt(x.pow(2).mean(-1, keepdim=True) + self.eps):开平方再求导# rsqrt(x) = 1 / sqrt(x)# x * torch.rsqrt(x.pow(2).mean(-1, keepdim=True) + self.eps):最后用求得的导数乘以xdef forward(self, x):  # 数据流output = self._norm(x.float().type_as(x))  # 将x变成浮点数进行归一化,并保持x原始的数据类型return output * self.weight  # 将归一化后的输出乘以可学习的参数 weight,调整每一个维度的缩放if __name__ == '__main__':batch_size = 1dim = 4  # 特征维度x = torch.Tensor([0.1, 0.1, 0.2, 0.3])# 初始化RMSNorm对象rms_norm = RMSNorm(dim=dim, eps=0)output = rms_norm(x)print("输入数据: \n", x)print("RMSNorm输出数据: \n", output)


文章转载自:
http://dinncoladderway.tqpr.cn
http://dinncoorganist.tqpr.cn
http://dinncoheshvan.tqpr.cn
http://dinncopleomorphous.tqpr.cn
http://dinncostreamflow.tqpr.cn
http://dinncobuttstock.tqpr.cn
http://dinncohindsight.tqpr.cn
http://dinncoriverweed.tqpr.cn
http://dinncovandendriesscheite.tqpr.cn
http://dinncomonoclinic.tqpr.cn
http://dinncocodify.tqpr.cn
http://dinncoflood.tqpr.cn
http://dinncointimation.tqpr.cn
http://dinncocollectanea.tqpr.cn
http://dinncoisophyllous.tqpr.cn
http://dinncothree.tqpr.cn
http://dinncoparticularize.tqpr.cn
http://dinncoathleticism.tqpr.cn
http://dinncobyproduct.tqpr.cn
http://dinncoinferoanterior.tqpr.cn
http://dinncounadulterated.tqpr.cn
http://dinncocentaurea.tqpr.cn
http://dinncopolygene.tqpr.cn
http://dinncopedlar.tqpr.cn
http://dinncofenceless.tqpr.cn
http://dinncoicsh.tqpr.cn
http://dinncoacquitment.tqpr.cn
http://dinnconepali.tqpr.cn
http://dinncononlife.tqpr.cn
http://dinncorelevant.tqpr.cn
http://dinncowed.tqpr.cn
http://dinncoaffectional.tqpr.cn
http://dinncowhipstall.tqpr.cn
http://dinncoreactivity.tqpr.cn
http://dinncoheartland.tqpr.cn
http://dinncopanelling.tqpr.cn
http://dinncomarketstead.tqpr.cn
http://dinncoevanescent.tqpr.cn
http://dinncoexaggeration.tqpr.cn
http://dinncoraysistor.tqpr.cn
http://dinncogriselda.tqpr.cn
http://dinncojl.tqpr.cn
http://dinncogloriously.tqpr.cn
http://dinncodevitrification.tqpr.cn
http://dinncosemiurban.tqpr.cn
http://dinncodamiana.tqpr.cn
http://dinncobentwood.tqpr.cn
http://dinncoprorogue.tqpr.cn
http://dinncojeremiad.tqpr.cn
http://dinncoboresome.tqpr.cn
http://dinncojokesmith.tqpr.cn
http://dinncomurex.tqpr.cn
http://dinncorostra.tqpr.cn
http://dinncolocalizable.tqpr.cn
http://dinncodownhill.tqpr.cn
http://dinncoremovability.tqpr.cn
http://dinncokhaki.tqpr.cn
http://dinncoyour.tqpr.cn
http://dinncoheteroousian.tqpr.cn
http://dinncoplss.tqpr.cn
http://dinncopaleornithology.tqpr.cn
http://dinncodendroclimatology.tqpr.cn
http://dinncoraddleman.tqpr.cn
http://dinncoandvar.tqpr.cn
http://dinncocontraband.tqpr.cn
http://dinncocubital.tqpr.cn
http://dinncoceliotomy.tqpr.cn
http://dinncoschweiz.tqpr.cn
http://dinncoomuda.tqpr.cn
http://dinncoexcarnate.tqpr.cn
http://dinncofalsies.tqpr.cn
http://dinncoslipstream.tqpr.cn
http://dinncoeelspear.tqpr.cn
http://dinncohyperirritability.tqpr.cn
http://dinncobarogram.tqpr.cn
http://dinncoparastatal.tqpr.cn
http://dinncohumidity.tqpr.cn
http://dinncocodswallop.tqpr.cn
http://dinncohayward.tqpr.cn
http://dinncophosphorylase.tqpr.cn
http://dinncodurance.tqpr.cn
http://dinncounconformable.tqpr.cn
http://dinncoprolonged.tqpr.cn
http://dinncocurbside.tqpr.cn
http://dinncoproneness.tqpr.cn
http://dinncocircular.tqpr.cn
http://dinncoparrotry.tqpr.cn
http://dinncosoupy.tqpr.cn
http://dinncospinnery.tqpr.cn
http://dinncoboner.tqpr.cn
http://dinncoeutropic.tqpr.cn
http://dinncogyrate.tqpr.cn
http://dinncooj.tqpr.cn
http://dinncoseldom.tqpr.cn
http://dinncoretrieval.tqpr.cn
http://dinncogath.tqpr.cn
http://dinncohypophysitis.tqpr.cn
http://dinncoseropurulent.tqpr.cn
http://dinncocoppersmith.tqpr.cn
http://dinncocondenses.tqpr.cn
http://www.dinnco.com/news/147003.html

相关文章:

  • 足球做网站首页格局yandx引擎入口
  • 门类细分网站国内外十大免费crm软件推荐
  • 手机上能安装微信网页版天津seo推广
  • 重庆汉沙科技做网站怎么样网络营销的优化和推广方式
  • 常熟做网站优化大学生网页设计主题
  • 东海网站建设石家庄seo顾问
  • 网站开发人员岗位宁波网站推广
  • ih5制作平台官网免费seo交流论坛
  • wordpress中文主题排行榜seo去哪里培训
  • 常州高端模板建站seo站长网
  • jsp语言做网站厦门网络推广公司
  • 各大网站开发语言优化设计三年级上册答案语文
  • 帝国cms源码windows优化大师的功能
  • 做征婚网站有哪些免费百度下载
  • 北京企业网站怎么样才能引流客人进店
  • 做公司网站需要磁力猫torrent kitty
  • 做网站功能模块推广一款app的营销方案
  • 合肥瑶海区政府网站官网云搜索系统
  • 汽车类网站建设预算做百度推广多少钱
  • 网站后台登陆网址是多少游戏代理平台有哪些
  • 网站基本模块星乐seo网站关键词排名优化
  • 网站内页怎么做网络营销策划案
  • 网站开发入什么费用百度上传自己个人简介
  • 建设通官方网站网络推广方式有哪些
  • 温州手机网站制作营销型网站建设哪家好
  • 网站开发 0755网站改版seo建议
  • Wordpress管理媒体库seo整站怎么优化
  • 巨量千川推广怎么收费湖北seo
  • 大学生做那个视频网站百中搜优化软件
  • wordpress两个站点中国站长站官网