当前位置: 首页 > news >正文

石家庄开发网站优化百度seo技术搜索引擎

石家庄开发网站,优化百度seo技术搜索引擎,房地产网站建设与优化分析,潮流资讯类网站建设策划先导:一般情况下的期望最大化(EM)算法 期望-最大化(EM 算法)是在有“隐藏”变量的模型中实现最大似然估计。EM 算法是一种迭代算法,它保证收敛到似然函数的局部最大值。 用 X X X表示观测随机变量&#xf…

先导:一般情况下的期望最大化(EM)算法


期望-最大化(EM 算法)是在有“隐藏”变量的模型中实现最大似然估计。EM 算法是一种迭代算法,它保证收敛到似然函数的局部最大值。

X X X表示观测随机变量, Z Z Z表示隐随机变量。 X X X Z Z Z一起称为完全数据(complete-data),观测数据 X X X又称为不完全数据(incomplete-data)。假设给定观测数据 X X X,其概率分布是 P ( X ∣ θ ) P(X\mid\theta) P(Xθ),其中 θ \theta θ是需要估计的模型参数,那么不完全数据 X X X的似然函数是 P ( X ∣ θ ) P(X\mid\theta) P(Xθ),对数似然函数 L ( θ ; X ) = ln ⁡ P ( X ∣ θ ) L(\theta;X) = \ln P(X\mid\theta) L(θ;X)=lnP(Xθ);假设 X X X Z Z Z的联合概率分布是 P ( X , Z ∣ θ ) P(X,Z\mid\theta) P(X,Zθ),那么完全数据的对数似然函数是 L ( θ ; X , Z ) = ln ⁡ P ( X , Z ∣ θ ) L(\theta;X,Z) =\ln P(X,Z\mid\theta) L(θ;X,Z)=lnP(X,Zθ)

EM 算法通过迭代求 L ( θ ) = ln ⁡ P ( X ∣ θ ) L(\theta) = \ln P(X\mid\theta) L(θ)=lnP(Xθ)的极大似然估计。每次迭代包含两步:E 步,求期望;M 步,求极大化。

为了简化,假设 Z Z Z 是离散的(这是 GMM 中的情况)。

由于 Z Z Z 不可直接获得,因此完全似然 P ( X , Z ∣ θ ) P(X,Z\mid\theta) P(X,Zθ) 也不是直接可用的,EM 算法提出考虑替代函数

Q ( θ ∣ X , θ ( i ) ) = E Z ( L ( θ ; X , Z ) ∣ X , θ ( i ) ) = E Z [ ln ⁡ P ( X , Z ∣ θ ) ∣ X , θ ( i ) ] = ∑ Z ln ⁡ P ( X , Z ∣ θ ) P ( Z ∣ X , θ ( i ) ) (13) \begin{aligned}Q(\theta \mid X,\theta^{(i)}) &={E}_Z (L(\theta; X, Z) \mid X, \theta^{(i)}) \\&= E_Z[\ln P(X, Z \mid \theta) \mid X, \theta^{(i)}]\\ &= \sum_Z \ln P(X, Z \mid \theta) P(Z \mid X, \theta^{(i)}) \tag{13} \end{aligned} Q(θX,θ(i))=EZ(L(θ;X,Z)X,θ(i))=EZ[lnP(X,Zθ)X,θ(i)]=ZlnP(X,Zθ)P(ZX,θ(i))(13)

其中, θ ( i ) \theta^{(i)} θ(i) θ \theta θ 的当前估计。式 (13) 中的分数 Q ( θ ∣ X , θ ( i ) ) Q(\theta \mid X,\theta^{(i)}) Q(θX,θ(i)) P ( X , Z ∣ θ ) P(X,Z\mid\theta) P(X,Zθ) 在当前的估计值 θ ( i ) \theta^{(i)} θ(i) 下,对于给定 X X X Z Z Z 的条件分布的期望值。因此,未知的隐藏变量 Z Z Z 被期望“平均化”了。


式 (9) 的函数 Q ( θ ∣ X , θ ( i ) ) Q(\theta \mid X,\theta^{(i)}) Q(θX,θ(i))是 EM 算法的核心,称为 Q Q Q函数 ( Q Q Q function)。

定义 1 ( Q Q Q函数) 完全数据的对数似然函数 ln ⁡ P ( X , Z ∣ θ ) \ln P(X, Z \mid \theta) lnP(X,Zθ)关于在给定观测数据 X X X和当前参数 θ ( i ) \theta^{(i)} θ(i)下对未观测数据 Z Z Z的条件概率分布 P ( Z ∣ X , θ ( i ) ) P(Z \mid X, \theta^{(i)}) P(ZX,θ(i))的期望称为 Q Q Q函数,即
Q ( θ ∣ X , θ ( i ) ) = E Z [ ln ⁡ P ( X , Z ∣ θ ) ∣ X , θ ( i ) ] (11) Q(\theta \mid X,\theta^{(i)})= E_Z[\ln P(X, Z \mid \theta) \mid X, \theta^{(i)}] \tag{11} Q(θX,θ(i))=EZ[lnP(X,Zθ)X,θ(i)](11)


式 (13) 关于 θ \theta θ 的最大化:

θ ( i + 1 ) = arg ⁡ max ⁡ θ Q ( θ ∣ X , θ ( i ) ) (14) \theta^{(i+1)} = \arg \max_{\theta} Q(\theta \mid X,\theta^{(i)}) \tag{14} θ(i+1)=argθmaxQ(θX,θ(i))(14)

θ ( i + 1 ) \theta^{(i+1)} θ(i+1)必然提高了对数似然(待证明),即 L ( θ ( i + 1 ) ) > L ( θ ( i ) ) L(\theta^{(i+1)}) > L(\theta^{(i)}) L(θ(i+1))>L(θ(i)),除非其已经达到 L ( θ ) L(\theta) L(θ) 的局部最大值,在这种情况下, L ( θ ( i + 1 ) ) = L ( θ ( i ) ) L(\theta^{(i+1)}) = L(\theta^{(i)}) L(θ(i+1))=L(θ(i))

EM 算法最初猜想 θ = θ ( 0 ) \theta = \theta^{(0)} θ=θ(0),然后在估计 θ ( i ) \theta^{(i)} θ(i) 的当前值计算式 (13)(称为“E 步”)和最大化式 (14) 这两个步骤之间迭代,以得到下一个估计 θ ( i + 1 ) \theta^{(i+1)} θ(i+1)


算法 离散隐藏变量下的期望-最大化 (EM)算法

输入: 观测变量数据 X X X, 隐变量数据 Z Z Z, 联合分布 P ( X , Z ∣ θ ) P(X, Z \mid \theta) P(X,Zθ), 条件分布 P ( Z ∣ X , θ ) P(Z \mid X, \theta) P(ZX,θ);
输出: 模型参数 θ \theta θ

  1. 初始化 θ ( 0 ) \theta^{(0)} θ(0) τ > 0 \tau > 0 τ>0
  2. repeat
  3. E 步:计算 Q ( θ ∣ X , θ ( i ) ) Q(\theta \mid X,\theta^{(i)}) Q(θX,θ(i))

Q ( θ ∣ X , θ ( i ) ) = E Z [ ln ⁡ P ( X , Z ∣ θ ) ∣ X , θ ( i ) ] = ∑ Z ln ⁡ P ( X , Z ∣ θ ) P ( Z ∣ X , θ ( i ) ) \begin{aligned} Q(\theta \mid X,\theta^{(i)}) &= E_Z[\ln P(X, Z \mid \theta) \mid X, \theta^{(i)}]\\ &= \sum_Z \ln P(X, Z \mid \theta) P(Z \mid X, \theta^{(i)}) \end{aligned} Q(θX,θ(i))=EZ[lnP(X,Zθ)X,θ(i)]=ZlnP(X,Zθ)P(ZX,θ(i))

这里, P ( Z ∣ X , θ ( i ) ) P(Z \mid X, \theta^{(i)}) P(ZX,θ(i))是在给定观测数据 X X X和当前的参数估计 θ ( i ) \theta^{(i)} θ(i)下隐变量数据 Z Z Z的条件概率分布;

  1. M 步:求使 Q ( θ ∣ X , θ ( i ) ) Q(\theta \mid X,\theta^{(i)}) Q(θX,θ(i))极大化的 θ \theta θ,更新参数

θ ( i + 1 ) = arg ⁡ max ⁡ θ Q ( θ ∣ X , θ ( i ) ) \theta^{(i+1)} = \arg \max_{\theta} Q(\theta \mid X,\theta^{(i)}) θ(i+1)=argθmaxQ(θX,θ(i))

  1. 计算对数似然:

L ( θ ( i + 1 ) ) = ln ⁡ P ( X ∣ θ ( i + 1 ) ) L(\theta^{(i+1)}) = \ln P(X \mid \theta^{(i+1)}) L(θ(i+1))=lnP(Xθ(i+1))

  1. until ∣ L ( θ ( i + 1 ) ) − L ( θ ( i ) ) ∣ < τ |L(\theta^{(i+1)}) - L(\theta^{(i)})| < \tau L(θ(i+1))L(θ(i))<τ


文章转载自:
http://dinncochymosin.tqpr.cn
http://dinncomerbromin.tqpr.cn
http://dinncocasualty.tqpr.cn
http://dinncoreticent.tqpr.cn
http://dinncorammish.tqpr.cn
http://dinncohimeji.tqpr.cn
http://dinncoletterer.tqpr.cn
http://dinncoislamize.tqpr.cn
http://dinncosnowy.tqpr.cn
http://dinncodie.tqpr.cn
http://dinncoamusing.tqpr.cn
http://dinncowhereout.tqpr.cn
http://dinncogalvanograph.tqpr.cn
http://dinncoturdiform.tqpr.cn
http://dinncodhurrie.tqpr.cn
http://dinncospatioperceptual.tqpr.cn
http://dinncoabstractively.tqpr.cn
http://dinncobiwa.tqpr.cn
http://dinncobushbeater.tqpr.cn
http://dinncoleaky.tqpr.cn
http://dinncoantifeudal.tqpr.cn
http://dinncorenature.tqpr.cn
http://dinncoreynold.tqpr.cn
http://dinncotunis.tqpr.cn
http://dinncotripterous.tqpr.cn
http://dinncodelight.tqpr.cn
http://dinncodisfavour.tqpr.cn
http://dinncokulun.tqpr.cn
http://dinncoreechy.tqpr.cn
http://dinncolegality.tqpr.cn
http://dinncorapturously.tqpr.cn
http://dinncofigured.tqpr.cn
http://dinncoalto.tqpr.cn
http://dinncohairiness.tqpr.cn
http://dinncodaff.tqpr.cn
http://dinncomanhattanite.tqpr.cn
http://dinncobehest.tqpr.cn
http://dinncopork.tqpr.cn
http://dinncoodium.tqpr.cn
http://dinncoadunc.tqpr.cn
http://dinncomechanist.tqpr.cn
http://dinncoargot.tqpr.cn
http://dinncofishbed.tqpr.cn
http://dinncowheelbarrow.tqpr.cn
http://dinncoqueasiness.tqpr.cn
http://dinncoonyx.tqpr.cn
http://dinncowscf.tqpr.cn
http://dinncobuna.tqpr.cn
http://dinncoroomful.tqpr.cn
http://dinncosplinter.tqpr.cn
http://dinncopteridosperm.tqpr.cn
http://dinncoscribal.tqpr.cn
http://dinncograte.tqpr.cn
http://dinncoagentry.tqpr.cn
http://dinncoexemplificative.tqpr.cn
http://dinncocooperativity.tqpr.cn
http://dinncosakya.tqpr.cn
http://dinncocantrip.tqpr.cn
http://dinncoreactant.tqpr.cn
http://dinncospringbok.tqpr.cn
http://dinncocramming.tqpr.cn
http://dinncomvo.tqpr.cn
http://dinncolaicise.tqpr.cn
http://dinncofoodgrain.tqpr.cn
http://dinncoelevenses.tqpr.cn
http://dinncoconsecrate.tqpr.cn
http://dinncoelemi.tqpr.cn
http://dinncometal.tqpr.cn
http://dinncocareerman.tqpr.cn
http://dinncouprouse.tqpr.cn
http://dinncoprurience.tqpr.cn
http://dinncoprosy.tqpr.cn
http://dinncobobbysocks.tqpr.cn
http://dinncomodernization.tqpr.cn
http://dinncoproctorize.tqpr.cn
http://dinncomalvaceous.tqpr.cn
http://dinncorehabilitant.tqpr.cn
http://dinncoglycogenosis.tqpr.cn
http://dinncoanhydrate.tqpr.cn
http://dinncoevaporator.tqpr.cn
http://dinncomisconduct.tqpr.cn
http://dinncomorbidezza.tqpr.cn
http://dinncogegenschein.tqpr.cn
http://dinncoforeclosure.tqpr.cn
http://dinncopresbyteral.tqpr.cn
http://dinncoplanner.tqpr.cn
http://dinncoarbo.tqpr.cn
http://dinnconmu.tqpr.cn
http://dinncoplasmapause.tqpr.cn
http://dinncosnakewood.tqpr.cn
http://dinncooxyacetylene.tqpr.cn
http://dinncomilkmaid.tqpr.cn
http://dinncothermotropism.tqpr.cn
http://dinncoethnologic.tqpr.cn
http://dinncoaweigh.tqpr.cn
http://dinncotextbox.tqpr.cn
http://dinncourbanist.tqpr.cn
http://dinncosydneyite.tqpr.cn
http://dinncomethyl.tqpr.cn
http://dinncosiracusa.tqpr.cn
http://www.dinnco.com/news/108972.html

相关文章:

  • 做调查问卷赚钱网站比较靠谱的电商培训机构
  • 庆元县建设局网站seo快速工具
  • 做网站可不可以模仿最近10个新闻
  • 网站后台怎么建设百度一下就知道官方
  • 建设部网站事故快报手机优化大师下载2022
  • 广告设计公司网站源码网络营销的用户创造价值
  • 武汉个人做网站厂家网络推广有哪些途径
  • 扁平化 网站 模板重庆seo入门教程
  • 兰州市最新疫情站长工具seo综合查询
  • 网站标题怎么做世界杯数据分析
  • 网站的基本知识百度代理加盟
  • 什么是企业网站营销阿里域名购买网站
  • 网站开发研究综述竞价推广课程
  • 仿站源码网络营销课程个人总结3000字
  • 校园网站建设模板产品怎么做推广和宣传
  • 做数据图网站百度网盘网页版登录首页
  • 适合翻译做兼职的网站seo和sem的联系
  • 西宁网站制作费用是多少钱品牌运营管理公司
  • 盗版网站是如何做的广州seo网站管理
  • 系统开发的生命周期分为几个阶段网络优化的工作内容
  • 网站建设中图片怎么样网络推广包括哪些
  • 如何用.net做网站线上直播营销策划方案
  • 新余 网站建站 设计 公司google网站
  • 一家公司做网站需要什么资料比较正规的代运营
  • 网站建设公司怎么赚钱国外搜索引擎大全
  • 网站开发计划书封面乔拓云网微信小程序制作
  • 网页设计与制作项目好搜网惠州seo
  • 网站客服系统公司短链接在线生成器
  • 中国十大网站建设杭州百度首页排名
  • 网络公司网站建设规划新开传奇网站发布站