当前位置: 首页 > news >正文

北辰正方建设集团有限公司官方网站搭建网上商城

北辰正方建设集团有限公司官方网站,搭建网上商城,手机app免费下载,wordpress api 缓存EM算法 引言EM算法例子及解法EM算法步骤和说明 引言 EM 算法是一种选代算法#xff0c;1977 年 Dempster 等人总结提出#xff0c;用于含有隐变量(hidden variable)的概率模型参数的极大似然估计#xff0c;或极大后验概率估计EM算法的每次选代由两步组成:E步#xff0c;求… EM算法 引言EM算法例子及解法EM算法步骤和说明 引言 EM 算法是一种选代算法1977 年 Dempster 等人总结提出用于含有隐变量(hidden variable)的概率模型参数的极大似然估计或极大后验概率估计EM算法的每次选代由两步组成:E步求期望 (expectation);M步求极大(maximization)所以这一算法称为期望极大算法(expectation maximizationalgorithm)简称EM算法。 EM算法例子及解法 三硬币模型: 假设有3 硬币分别作 A B C ABC ABC这些硬币正面出现的概率分别是 π \pi π p p p和 q q q进行如下硬币试验:先硬币 A A A根据其结果选出硬币 B B B或硬币 C C C正面选硬币 B B B反面选硬币 C C C;然后掷选出的硬币掷硬币的结果出现正面记作 1出现反面记作 0;独立地重复$n $次试验(这里n10)观测结果如下: 1 , 1 , 0 , 1 , 0 , 0 , 1 , 0 , 1 , 1 1,1,0,1,0,0,1,0,1,1 1,1,0,1,0,0,1,0,1,1 假设只能观测到掷硬币的结果不能观测掷硬币的过程。问如何估计三硬币正面出现的概率即三硬币模型的参数。 模型表达是为 P ( y ∣ θ ) ∑ z P ( y , z ∣ θ ) ∑ z P ( z ∣ θ ) P ( y ∣ z , θ ) π p y ( 1 − p ) y ( 1 − π ) q y ( 1 − q ) 1 − y \begin{align} P(y|\theta) \sum_{z}P(y,z|\theta)\sum_{z}P(z|\theta)P(y|z,\theta) \nonumber\\ \pi p^y (1-p)^y(1-\pi)q^y(1-q)^{1-y} \nonumber \end{align} P(y∣θ)​z∑​P(y,z∣θ)z∑​P(z∣θ)P(y∣z,θ)πpy(1−p)y(1−π)qy(1−q)1−y​ 这里随机变量 y y y是观测变量表示一次试验观测的结果是 1或0;随机变量是隐变量表示未观测到的掷硬币 A A A 的结果; θ ( π , p , q ) \theta(\pi,p,q) θ(π,p,q)是模型参这一模型是以上数据的生成模型注意随机变量 y y y的数据可以观测随机变量 z z z的数据不可观测。 将观察数据表示为 Y ( Y 1 , Y 1 , . . . , Y 1 ) T Y(Y_1,Y_1,...,Y_1)^T Y(Y1​,Y1​,...,Y1​)T,未观察数据表示为 Z ( Z 1 , Z 2 , . . . , Z n ) T Z(Z_1,Z_2,...,Z_n)^T Z(Z1​,Z2​,...,Zn​)T,则观察数据的似然函数为 P ( Y ∣ θ ) ∑ z P ( Z ∣ θ ) P ( Y ∣ Z , θ ) P(Y|\theta)\sum_zP(Z|\theta)P(Y|Z,\theta) P(Y∣θ)z∑​P(Z∣θ)P(Y∣Z,θ) 即 P ( Y ∣ θ ) ∏ j 1 n [ π p y j ( 1 − p ) y j ( 1 − π ) q y j ( 1 − q ) 1 − y j ] P(Y|\theta)\prod_{j1}^{n}[\pi p^{y_j} (1-p)^{y_j}(1-\pi)q^{y_j}(1-q)^{1-{y_j}}] P(Y∣θ)j1∏n​[πpyj​(1−p)yj​(1−π)qyj​(1−q)1−yj​] 考虑求模型参数 θ ( π , p , q ) \theta(\pi,p,q) θ(π,p,q)的极大似然估计即 θ ^ a r g max ⁡ θ l o g P ( Y ∣ θ ) \hat{\theta}arg \max\limits_{\theta}logP(Y|\theta) θ^argθmax​logP(Y∣θ) 这个问题没有解析解只有通过迭代的方法求解。EM算法就是可以用于求解这个问题的一种迭代算法下面给出针对以上问题的EM算法其推导过程省略。 EM算法首先选取参数的初值记作 θ ( 0 ) ( π ( 0 ) , p ( 0 ) , q ( 0 ) ) \theta^{(0)}(\pi^{(0)},p^{(0)},q^{(0)}) θ(0)(π(0),p(0),q(0)),然后通过下面的迭代参数的估计值直至收敛为止。第 i i i次迭代参数的估计值为 θ ( 0 ) ( π ( i ) , p ( i ) , q ( i ) ) \theta^{(0)}(\pi^{(i)},p^{(i)},q^{(i)}) θ(0)(π(i),p(i),q(i))。EM 算法的第 i 1 i1 i1次迭代如下。 E步计算在模型参数 π ( i ) , p ( i ) , q ( i ) \pi^{(i)},p^{(i)},q^{(i)} π(i),p(i),q(i)下观测数据 y i y_i yi​来自掷硬币B的概率 μ i 1 π ( p ( i ) ) y j ( 1 − ( p ( i ) ) ) y j π ( p ( i ) ) y j ( 1 − ( p ( i ) ) ) y j ( 1 − π ) ( q ( i ) ) y j ( 1 − ( q ( i ) ) ) 1 − y j \mu^{i1}\frac{\pi (p^{(i)})^{y_j} (1- (p^{(i)}))^{y_j}}{\pi (p^{(i)})^{y_j} (1- (p^{(i)}))^{y_j}(1-\pi)(q^{(i)})^{y_j}(1-(q^{(i)}))^{1-{y_j}}} μi1π(p(i))yj​(1−(p(i)))yj​(1−π)(q(i))yj​(1−(q(i)))1−yj​π(p(i))yj​(1−(p(i)))yj​​ M步计算模型参数的新估计值 π ( i 1 ) 1 n ∑ j 1 n μ j ( i 1 ) \pi^{(i1)}\frac{1}{n} \sum_{j1}^{n} \mu_j^{(i1)} π(i1)n1​j1∑n​μj(i1)​ p ( i 1 ) ∑ j 1 n μ j ( i 1 ) y j ∑ j 1 n μ j ( i 1 ) p^{(i1)}\frac{ \sum_{j1}^{n} \mu_j^{(i1)}y_j}{ \sum_{j1}^{n} \mu_j^{(i1)}} p(i1)∑j1n​μj(i1)​∑j1n​μj(i1)​yj​​ q ( i 1 ) ∑ j 1 n ( 1 − μ j ( i 1 ) ) y j ∑ j 1 n ( 1 − μ j ( i 1 ) ) q^{(i1)}\frac{ \sum_{j1}^{n} (1-\mu_j^{(i1)})y_j}{ \sum_{j1}^{n} (1-\mu_j^{(i1)})} q(i1)∑j1n​(1−μj(i1)​)∑j1n​(1−μj(i1)​)yj​​ 进行数字计算假设模型参数的初值为 π ( 0 ) 0.5 , p ( 0 ) 0.5 , q ( 0 ) 0.5 \pi^{(0)}0.5,p^{(0)}0.5,q^{(0)}0.5 π(0)0.5,p(0)0.5,q(0)0.5 对 y j 1 y_j1 yj​1与 y j 0 y_j0 yj​0均有 μ j ( 1 ) 0.5 \mu_j^{(1)}0.5 μj(1)​0.5。 根据M步计算得到 π ( 0 ) 0.5 , p ( 0 ) 0.6 , q ( 0 ) 0.6 \pi^{(0)}0.5,p^{(0)}0.6,q^{(0)}0.6 π(0)0.5,p(0)0.6,q(0)0.6 根据E步可以得到 μ j ( 2 ) 0.5 , j 1 , 2 , . . . , 10 \mu_j^{(2)}0.5,j1,2,...,10 μj(2)​0.5,j1,2,...,10 继续迭代得 π ( 0 ) 0.5 , p ( 0 ) 0.6 , q ( 0 ) 0.6 \pi^{(0)}0.5,p^{(0)}0.6,q^{(0)}0.6 π(0)0.5,p(0)0.6,q(0)0.6 于是得到模型参数 θ \theta θ的极大似然估计 π ^ 0.5 , p ^ 0.6 , q ^ 0.6 \hat{\pi}0.5,\hat p0.6,\hat q0.6 π^0.5,p^​0.6,q^​0.6 π 0.5 \pi0.5 π0.5表示硬币A是匀称的这一结果容易理解。 如果取初始值 π ( 0 ) 0.4 , p ( 0 ) 0.6 , q ( 0 ) 0.7 \pi^{(0)}0.4,p^{(0)}0.6,q^{(0)}0.7 π(0)0.4,p(0)0.6,q(0)0.7,那么得到的模型参数的极大似然估计 π ^ 0.4064 , p ^ 0.5368 , q ^ 0.6432 \hat{\pi}0.4064,\hat p0.5368,\hat q0.6432 π^0.4064,p^​0.5368,q^​0.6432。这就是说EM算法与初始值的选择有关选择不同的初值可能得到不同的参数估计值。 EM算法步骤和说明 一般地用Y表示观测随机变量的数据Z表示隐随机变量的数据Y和Z连在一起称为完全数据 (complete-data)观测数据Y又称为不完全数据(incomplete-data)。假设给定观测数据Y其概率分布是 P ( Y ∣ θ ) P(Y|\theta) P(Y∣θ)其中是需要估计的模型参数那么不完全数据Y的似然函数是 P ( Y ∣ θ ) P(Y|\theta) P(Y∣θ)对数似然函数 L ( 0 ) l o g P ( Y ∣ θ ) L(0)logP(Y|\theta) L(0)logP(Y∣θ);假设Y和Z的联合概率分布是 P ( Y Z ∣ θ ) P(YZ|\theta) P(YZ∣θ)那完全的对数似然函数是 l o g P ( Y , Z ∣ θ ) logP(Y,Z|\theta) logP(Y,Z∣θ)。 EM算法通过选代求 L ( θ ) l o g P ( Y ∣ θ ) L(\theta)logP(Y|\theta) L(θ)logP(Y∣θ)的极大似然估计每次代包含两步:E 步求期望:M步求极大化下面来介绍 EM 算法。 输入:观测变量数据 Y Y Y隐变量数据 Z Z Z联合分布 P ( Y , Z ∣ θ ) P(Y,Z|\theta) P(Y,Z∣θ)条件分布 P ( Z ∣ Y , θ ) P(Z|Y,\theta) P(Z∣Y,θ); 输出:模型参数 θ \theta θ。 (1)选择参数的初值 θ ( 0 ) \theta^{(0)} θ(0)开始迭代; (2)E步:记 θ ( i ) \theta^{(i)} θ(i)为第 i i i次代参数的估计值在第 i 1 i1 i1次选代的E步计算 Q ( θ , θ ( i ) ) E Z [ l o g P ( Y , Z ∣ θ ) ∣ Y , θ ( i ) ] ∑ Z l o g P ( Y , Z ∣ θ ) P ( Z ∣ Y , θ ( i ) ) \begin{align} Q(\theta,\theta^{(i)}) E_Z[logP(Y,Z|\theta)|Y,\theta^{(i)}] \nonumber\\ \sum_{Z}logP(Y,Z|\theta)P(Z|Y,\theta^{(i)}) \nonumber\\ \end{align} Q(θ,θ(i))​EZ​[logP(Y,Z∣θ)∣Y,θ(i)]Z∑​logP(Y,Z∣θ)P(Z∣Y,θ(i))​​ 这里 P ( Z ∣ Y , θ ) P(Z|Y,\theta) P(Z∣Y,θ)在给定观测数据 Y Y Y和当前的参数估计 θ ( i ) \theta^{(i)} θ(i)下隐变量数据 Z Z Z的条件概率分布 (3)M步求使 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))极大化的 θ \theta θ,确定第 i 1 i1 i1次迭代的参数的估计值 θ ( i 1 ) \theta^{(i1)} θ(i1) θ ( i 1 ) arg ⁡ max ⁡ θ Q ( θ , θ ( i ) ) \theta^{(i1)}\arg \max \limits_{\theta}Q(\theta,\theta^{(i)}) θ(i1)argθmax​Q(θ,θ(i)) (4)重复第2步和第3步直到收敛。 函数 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))是EM算法的核心称为Q函数Q function。 下面关于 EM 算法作几点说明: 步骤(1)参数的初值可以任意选择但需注意 EM算法对初值是敏感的步骤(2)E步求 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))。Q函数式中Z是未观察数据Y是观测数据注意 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))的第1个变元表示要极大化的参数第2个变元表示参数的当前估计值。每次迭代实际在求 Q Q Q函数及其极大。 步骤(3)M步求 Q ( θ , θ ( i ) ) Q(\theta,\theta^{(i)}) Q(θ,θ(i))的极大化得到 θ ( i 1 ) \theta^{(i1)} θ(i1)完成一次代 θ ( i ) − θ ( i 1 ) \theta^{(i)}-\theta^{(i1)} θ(i)−θ(i1)。后面将证明每次迭代使似然函数增大或达到局部极值。 步骤(4)给出停止迭代的条件一般是对较小的正数 ϵ 1 , ϵ 2 \epsilon_1,\epsilon_2 ϵ1​,ϵ2​若满足 ∣ ∣ θ ( i 1 ) − θ ( i ) ∣ ∣ ϵ 1 或 ∣ ∣ Q ( θ ( i 1 ) , θ ( i ) ) − Q ( θ ( i ) , θ ( i ) ) ∣ ∣ ϵ 2 || \theta^{(i1)}- \theta^{(i)}||\epsilon_1 或||Q(\theta^{(i1)},\theta^{(i)})- Q(\theta^{(i)},\theta^{(i)})||\epsilon_2 ∣∣θ(i1)−θ(i)∣∣ϵ1​或∣∣Q(θ(i1),θ(i))−Q(θ(i),θ(i))∣∣ϵ2​ 则停止迭代
http://www.dnsts.com.cn/news/165790.html

相关文章:

  • 网站是别人做的我这就没有根目录wordpress用ip访问
  • 惠州市网站制作公司铜陵网站建设价格
  • 南京网站群建设公司淮安百度推广公司
  • 北京网站建设新鸿微信号wordpress系统架构图
  • 购物网站那个信用好又便宜鞍山吧台
  • 网站建设与维护制作网页网上书店网网站建设
  • 建设彩票网站如何盈利html5英文视频网站建设
  • 便利的赣州网站建设手机怎样设计网站建设
  • 如何修改网站元素网站快速刷排名工具
  • 做轴承生意的网站开个网站卖机器怎么做
  • 云存储做网站免费企业网站注册
  • 网站友链怎么添加厦门方易网站制作有限公司
  • seo站长助手免费做情网站
  • 宝安营销型网站费用古代中国建筑网站
  • 做网站设计需要什么技术网站建设钅金手指排名
  • 京东云服务器怎么做网站网站服务器规划 用户数
  • 网站单页在线品牌网站设计打造
  • 定制网站建设河间网站网站建设
  • 邢台网站建设服务长沙营销网站建设公司
  • 深圳万户网络科技有限公司seo网站设计招聘
  • 商用高端网站设计新感觉建站一周内重大新闻事件10条
  • 金华建设局政务网站如何做亚马逊备案的网站
  • 广西住房和城乡建设厅网站首页做三个月网站 广告收入
  • 上海市 建设执业资格注册中心网站网页设计制作教程题库
  • 陕西省交通集团建设网站免费建站
  • 公司网站开发软件做网批有专门的网站吗?
  • 上海市建设工程咨询行业协会seo基础培训教程
  • 企业网站开发标准网站seo链接购买
  • 江宁网站建设报价不花钱怎么做网站运营
  • 怎么做能上谷歌网站什么是企业