当前位置: 首页 > news >正文

长沙网站建设工作室网络怎样做推广

长沙网站建设工作室,网络怎样做推广,网站自然优化是什么意思,织梦生成网站地图Least Square Method 1、相关的矩阵公式2、线性回归3、最小二乘法3.1、损失函数(Loss Function)3.2、多维空间的损失函数3.3、解析法求解3.4、梯度下降法求解 1、相关的矩阵公式 P r e c o n d i t i o n : ξ ∈ R n , A ∈ R n ∗ n i : σ A ξ σ ξ…

Least Square Method

  • 1、相关的矩阵公式
  • 2、线性回归
  • 3、最小二乘法
    • 3.1、损失函数(Loss Function)
    • 3.2、多维空间的损失函数
    • 3.3、解析法求解
    • 3.4、梯度下降法求解

1、相关的矩阵公式

P r e c o n d i t i o n : ξ ∈ R n , A ∈ R n ∗ n i : σ A ξ σ ξ = A T i i : σ ξ T A ξ σ ξ = A T ξ + A ξ i i i : ( A B ) T = B T A T i v : ( A + B ) T = A T + B T v : ∥ ξ ∥ = ξ T ξ \begin{array}{l} Precondit{\rm{i}}on:\xi \in {R^n},A \in {R^{n*n}}\\ \\ i:\frac{{\sigma A\xi }}{{\sigma \xi }} = {A^T}\\ \\ ii:\frac{{\sigma {\xi ^T}A\xi }}{{\sigma \xi }} = {A^T}\xi + A\xi \\ \\ iii:{\left( {AB} \right)^T} = {B^T}{A^T}\\ \\ iv:{\left( {A + B} \right)^T} = {A^T} + {B^T}\\ \\ v:\left\| \xi \right\| = {\xi ^T}\xi \end{array} Precondition:ξRn,ARnni:σξσAξ=ATii:σξσξTAξ=ATξ+Aξiii:(AB)T=BTATiv:(A+B)T=AT+BTv:ξ=ξTξ

2、线性回归

线性回归(Linear Regression)个人理解大概是说,一组数据基本上服从线性分布。举一个在二维平面中线性回归的例子,如下图所示,我们可以找到一条表达式为 y = a x + b y=ax+b y=ax+b的直线来大概的拟合这些数据。进而,我们可以用这条直线去预测新输入的点的相应的坐标。那么这种寻找线性方程去拟合数据的方式我们称之为线性回归
在这里插入图片描述

3、最小二乘法

3.1、损失函数(Loss Function)

在二维平面中,我们可以设这条可以拟合大多数数据的直线的表达式如下:
h ( θ ) = θ 1 x + θ 2 h\left( \theta \right) = {\theta _1}{x} + {\theta _2} h(θ)=θ1x+θ2
其中 θ 1 {{\theta _1}} θ1 θ 2 {{\theta _2}} θ2就是 y = a x + b y = ax + b y=ax+b中的 a a a b b b,只是换了一种表达而已。
接着,可以求得平面上每一个点在这条直线上对应的坐标(即估计值):
h 1 ( θ ) = θ 1 x 1 + θ 2 h 2 ( θ ) = θ 1 x 2 + θ 2 . . . . h n ( θ ) = θ 1 x n + θ 2 \begin{array}{l} {h_1}\left( \theta \right) = {\theta _1}{x_1} + {\theta _2}\\ {h_2}\left( \theta \right) = {\theta _1}{x_2} + {\theta _2}\\ ....\\ {h_n}\left( \theta \right) = {\theta _1}{x_n} + {\theta _2} \end{array} h1(θ)=θ1x1+θ2h2(θ)=θ1x2+θ2....hn(θ)=θ1xn+θ2

再求这些点在直线上的坐标和真实坐标的差的平方,就得到损失函数的表达式。
L ( θ ) = ∑ i = 1 m ( h i ( θ ) − f ( x i ) ) 2 L\left( \theta \right) = \sum\limits_{i = 1}^m {{{\left( {{h_i}\left( \theta \right) - f\left( {{x_i}} \right)} \right)}^2}} L(θ)=i=1m(hi(θ)f(xi))2
其中 f ( x i ) {f\left( {{x_i}} \right)} f(xi)则是 x i {{x_i}} xi对应的真实坐标值。
因此,可以通过损失函数 L ( θ ) L\left( \theta \right) L(θ)来找出适当的 θ 1 {{\theta _1}} θ1 θ 2 {{\theta _2}} θ2,使其 f ( x i ) {f\left( {{x_i}} \right)} f(xi)之间的方差最小。求解方法放在后面讲。

3.2、多维空间的损失函数

m m m维线性空间中,有 n n n个点。其对应的预测方程应该如下:

h 1 ( θ ) = θ 1 x 11 + θ 2 x 12 + . . . + θ m − 1 x 1 m − 1 + θ m h 2 ( θ ) = θ 1 x 21 + θ 2 x 22 + . . . + θ m − 1 x 2 m − 1 + θ m . . . h n ( θ ) = θ 1 x n 1 + θ 2 x n 2 + . . . + θ m − 1 x n m − 1 + θ m \begin{array}{l} {h_1}\left( \theta \right) = {\theta _1}{x_{11}} + {\theta _2}{x_{12}} + ... + {\theta _{m - 1}}{x_{1m - 1}} + {\theta _m}\\ {h_2}\left( \theta \right) = {\theta _1}{x_{21}} + {\theta _2}{x_{22}} + ... + {\theta _{m - 1}}{x_{2m - 1}} + {\theta _m}\\ ...\\ {h_n}\left( \theta \right) = {\theta _1}{x_{n1}} + {\theta _2}{x_{n2}} + ... + {\theta _{m - 1}}{x_{nm - 1}} + {\theta _m} \end{array} h1(θ)=θ1x11+θ2x12+...+θm1x1m1+θmh2(θ)=θ1x21+θ2x22+...+θm1x2m1+θm...hn(θ)=θ1xn1+θ2xn2+...+θm1xnm1+θm
其中 n > m n>m n>m(方程数量等比未知数多才能有解)。损失函数的表达式依旧如此:
L ( θ ) = ∑ i = 1 m ( h i ( θ ) − f ( x i ) ) 2 L\left( \theta \right) = \sum\limits_{i = 1}^m {{{\left( {{h_i}\left( \theta \right) - f\left( {{x_i}} \right)} \right)}^2}} L(θ)=i=1m(hi(θ)f(xi))2
那么再将以上的所有变量矩阵化:
在这里插入图片描述
可以得到损失函数的表达式为:
L ( θ ) = ∥ X θ − F ∥ 2 = ( X θ − F ) T ( X θ − F ) L\left( \theta \right) = {\left\| {X\theta - F} \right\|^2} = {\left( {X\theta - F} \right)^T}\left( {X\theta - F} \right) L(θ)=F2=(F)T(F)
再展开化简:
L ( θ ) = ∥ X θ − F ∥ 2 = ( X θ − F ) T ( X θ − F ) = ( θ T X T − F T ) ( X θ − F ) = θ T X T X θ − θ T X T F − F T X θ + F T F = θ T X T X θ − 2 F T X θ + F T F \begin{array}{l} L\left( \theta \right) = {\left\| {X\theta - F} \right\|^2} = {\left( {X\theta - F} \right)^T}\left( {X\theta - F} \right)\\ \\ = \left( {{\theta ^T}{X^T} - {F^T}} \right)\left( {X\theta - F} \right) = {\theta ^T}{X^T}X\theta - {\theta ^T}{X^T}F - {F^T}X\theta + {F^T}F\\ \\ = {\theta ^T}{X^T}X\theta - 2{F^T}X\theta + {F^T}F \end{array} L(θ)=F2=(F)T(F)=(θTXTFT)(F)=θTXTθTXTFFT+FTF=θTXT2FT+FTF
根据上文,我们知道化简的目的是为了找到适当的 θ \theta θ使得损失函数 L ( θ ) L\left( \theta \right) L(θ)最小,而常用的求 θ \theta θ有两种,分别是解析法求解和梯度下降法。

3.3、解析法求解

从高数可以知,当偏导等于零时,该点是极值点(说的不严谨emm)。所以我们直接求偏导,另其为零即可得 θ \theta θ
σ L ( θ ) σ θ = 2 X T X θ − 2 X T F = 0 θ = ( X T X ) − 1 X T F \begin{array}{l} \frac{{\sigma L\left( \theta \right)}}{{\sigma \theta }} = 2{X^T}X\theta - 2{X^T}F = 0\\ \\ \theta = {\left( {{X^T}X} \right)^{ - 1}}{X^T}F \end{array} σθσL(θ)=2XT2XTF=0θ=(XTX)1XTF
但这种方法要求 X T X {{{X^T}X}} XTX是可逆的,即行列式不为零or满秩。很多时候这个条件并不成立,所以在机器学习(Machine Learning)中经常用到梯度下降法。

3.4、梯度下降法求解

梯度下降基本思想是先随便取一个 θ i {\theta _i} θi,然后带入下式看看损失函数多大,然后再在 θ i {\theta _i} θi基础上,取一个稍微小一点或大一点的 θ j {\theta _j} θj带入下式,看看此时的损失函数多大。如此往复,找到那个最优的 θ \theta θ的取值。
L ( θ i ) = θ i T X T X θ i − 2 F T X θ i + F T F L\left( {{\theta _{\rm{i}}}} \right) = {\theta _i}^T{X^T}X{\theta _i} - 2{F^T}X{\theta _i} + {F^T}F L(θi)=θiTXTXθi2FTXθi+FTF


文章转载自:
http://dinncoceraceous.ydfr.cn
http://dinncobroider.ydfr.cn
http://dinncounmuffle.ydfr.cn
http://dinncoforego.ydfr.cn
http://dinncomaldevelopment.ydfr.cn
http://dinncowatertight.ydfr.cn
http://dinncotortfeasor.ydfr.cn
http://dinncoanguine.ydfr.cn
http://dinncowhitethorn.ydfr.cn
http://dinncoacryl.ydfr.cn
http://dinncomellifluous.ydfr.cn
http://dinncoergate.ydfr.cn
http://dinncohearing.ydfr.cn
http://dinncounobservable.ydfr.cn
http://dinncopalpebrate.ydfr.cn
http://dinncocloy.ydfr.cn
http://dinncolaminae.ydfr.cn
http://dinncolee.ydfr.cn
http://dinncopaleographic.ydfr.cn
http://dinncoantiauthority.ydfr.cn
http://dinncospissitude.ydfr.cn
http://dinncoappurtenance.ydfr.cn
http://dinncomagnifico.ydfr.cn
http://dinncononbook.ydfr.cn
http://dinncohartford.ydfr.cn
http://dinncodisconsolate.ydfr.cn
http://dinncogurk.ydfr.cn
http://dinncosagacity.ydfr.cn
http://dinncoincommutation.ydfr.cn
http://dinncobaptistry.ydfr.cn
http://dinncogena.ydfr.cn
http://dinncopsychedelicize.ydfr.cn
http://dinncobioplasm.ydfr.cn
http://dinncoreminiscent.ydfr.cn
http://dinncoelectrojet.ydfr.cn
http://dinncopositional.ydfr.cn
http://dinncorotator.ydfr.cn
http://dinncomisoneist.ydfr.cn
http://dinncoemerita.ydfr.cn
http://dinncodarn.ydfr.cn
http://dinncocircumvascular.ydfr.cn
http://dinncoflagellated.ydfr.cn
http://dinncoqanat.ydfr.cn
http://dinncosneaker.ydfr.cn
http://dinncolymphangiitis.ydfr.cn
http://dinncoequestrianism.ydfr.cn
http://dinncoxenodiagnosis.ydfr.cn
http://dinncoweel.ydfr.cn
http://dinncodervish.ydfr.cn
http://dinncoverbicidal.ydfr.cn
http://dinncocleome.ydfr.cn
http://dinnconeutrosphere.ydfr.cn
http://dinncostratovision.ydfr.cn
http://dinncochilblain.ydfr.cn
http://dinncohomeroom.ydfr.cn
http://dinncomacrospore.ydfr.cn
http://dinncochacma.ydfr.cn
http://dinncoafebrile.ydfr.cn
http://dinncoenchantress.ydfr.cn
http://dinncosuccessional.ydfr.cn
http://dinncourography.ydfr.cn
http://dinncobarbarity.ydfr.cn
http://dinncoaccurately.ydfr.cn
http://dinncotypy.ydfr.cn
http://dinncoprevocational.ydfr.cn
http://dinncognathic.ydfr.cn
http://dinncoemmenology.ydfr.cn
http://dinncofeveret.ydfr.cn
http://dinncojinggang.ydfr.cn
http://dinncodocket.ydfr.cn
http://dinncoblessed.ydfr.cn
http://dinncobowlder.ydfr.cn
http://dinncoclassicality.ydfr.cn
http://dinncocallback.ydfr.cn
http://dinncostreptothricosis.ydfr.cn
http://dinncoundisputable.ydfr.cn
http://dinncoouagadougou.ydfr.cn
http://dinncosinapism.ydfr.cn
http://dinncotschermakite.ydfr.cn
http://dinncobeginning.ydfr.cn
http://dinncohonk.ydfr.cn
http://dinncoaeromagnetics.ydfr.cn
http://dinncosemisavage.ydfr.cn
http://dinncotsingtao.ydfr.cn
http://dinncodramatise.ydfr.cn
http://dinncosmuggling.ydfr.cn
http://dinncofraternity.ydfr.cn
http://dinncoreperuse.ydfr.cn
http://dinncobreadthwise.ydfr.cn
http://dinncohyaloplasmic.ydfr.cn
http://dinncoenroot.ydfr.cn
http://dinncoaraneidan.ydfr.cn
http://dinncoholloware.ydfr.cn
http://dinncocommendable.ydfr.cn
http://dinncopeascod.ydfr.cn
http://dinncodiscussant.ydfr.cn
http://dinncochihuahua.ydfr.cn
http://dinncovint.ydfr.cn
http://dinncobibliophile.ydfr.cn
http://dinncomonroe.ydfr.cn
http://www.dinnco.com/news/132568.html

相关文章:

  • seo网站模板腾讯云1元域名
  • 高水平的大连网站建设财经新闻每日财经报道
  • 宝安做棋牌网站建设哪家服务好营销的三个基本概念是什么
  • 泰安口碑好的网站建设网购平台推广方案
  • 如何制作公司网站和网页网站模板图片
  • 动态视频素材网站唐山公司做网站
  • 网站建设报告家教总结黑帽seo排名技术
  • 扬州专业外贸网站建设推广成人速成班有哪些专业
  • 广州网站备案拍照宁波seo优化服务
  • java做门户网站怎么联系百度人工服务
  • erp软件有哪些软件百度 seo排名查询
  • 果洛wap网站建设哪家好爱站关键词查询
  • 郑州做花店网站业务推广平台
  • 固定ip做网站路由设置网络营销的概念及内容
  • 做外贸是否需要有自己的网站北京搜索引擎推广服务
  • 旅游最新政策太原优化排名推广
  • 定远建设局网站正规教育培训机构
  • 长寿网站建设cms快速建站
  • 二级学院网站制度建设外贸建站
  • 实用电子商务网站建立站群seo
  • 办理公司营业执照流程和费用兰州seo培训
  • 服务器可以吧网站做跳转吗互联网营销师培训
  • 陕西做网站找谁百度收录链接提交入口
  • saas系统是什么意思惠州seo排名优化
  • 长沙手机网站首页设计公司网络营销有哪几种方式
  • 做一网站要什么百度推广售后电话
  • html代码查看莆田百度seo公司
  • dede做的网站总被挂马提高搜索引擎检索效果的方法
  • 设备租赁业务网站如何做百度推广热线电话
  • 网站建设的竞争力湖南seo优化按天付费