专栏名称: 机器学习研究会
机器学习研究会是北京大学大数据与机器学习创新中心旗下的学生组织,旨在构建一个机器学习从事者交流的平台。除了及时分享领域资讯外,协会还会举办各种业界巨头/学术神牛讲座、学术大牛沙龙分享会、real data 创新竞赛等活动。
目录
相关文章推荐
黄建同学  ·  Qwen2.5-Max真的可以!Chatbo ... ·  2 天前  
爱可可-爱生活  ·  分量十足:根本吃不完 ... ·  2 天前  
宝玉xp  ·  让 Deep Research ... ·  3 天前  
AI前线  ·  o3-mini之后,OpenAI又紧急上线D ... ·  3 天前  
爱可可-爱生活  ·  【[58星]ComfyUI_LoRA_Sid ... ·  4 天前  
51好读  ›  专栏  ›  机器学习研究会

干货|通俗易懂地解释EM算法并举例说明?

机器学习研究会  · 公众号  · AI  · 2017-11-17 23:10

正文

推荐阅读时间:5-10min


主要内容:极大似然估计和EM算法

以下是我觉得最通俗理解EM思想的方式了!之前做的笔记,详细看来:


1

极大似然估计



讲EM算法之前,我们先来看下极大似然估计,这个在掌握机器学习数学基础之概率统计(重点知识)这篇文章有讲解,而 EM算法是为了解决“最大似然估计”中更复杂的情形而存在的


这里“极大似然估计中更复杂的情形”是什么情形呢? 我们知道极大似然估计是求解实现结果的最佳参数θ,但极大似然估计需要面临的概率分布只有一个或者 知道结果是通过哪个概率分布实现 的,只不过你不知道这个概率分布的参数。而如果概率分布有多个呢或者你不知道结果是通过哪个概率分布实现的?


于是别说去确定“这些概率分布”的最佳参数了,我们连最终结果是根据哪个概率分布得出来的都不知道,这就是EM算法要面临的情况了。


2

EM算法



最大似然估计和EM算法都是根据实现结果求解概率分布的最佳参数θ ,但最大似然估计中知道每个结果对应哪个概率分布(我知道哪个概率分布实现了这个结果),而EM算法面临的问题是:我不知道哪个概率分布实现了该结果。怎么在不知道其概率分布的情况下还能求解其问题?且看EM算法:


EM算法的求解思想


在说明EM算法的求解思想前,我们先总结下上面的内容。


一般的用Y表示观测到的随机变量的数据,Z表示隐随机变量的数据(因为我们观测不到结果是从哪个概率分布中得出的,所以将这个叫做隐变量)。于是Y和Z连在一起被称为完全数据,仅Y一个被称为不完全数据。


这时有没有发现EM算法面临的问题主要就是:有个隐变量数据Z。而如果Z已知的话,那问题就可用极大似然估计求解了。 于是乎,怎么把Z变成已知的?

举个日常生活的例子。


结果 大厨把锅里的菜平均分配到两个碟子里

难题 :如果只有一个碟子乘菜那就什么都不用说了,但问题是有2个碟子,而因为根本无法估计一个碟子里应该乘多少菜,所以无法一次性把菜完全平均分配。

解法 :大厨先把锅里的菜一股脑倒进两个碟子里,然后看看哪个碟子里的菜多,就把这个碟子中的菜往另一个碟子中匀匀,之后重复多次匀匀的过程,直到两个碟子中菜的量大致一样。 上面的例子中, 平均分配这个结果是“观测数据”,为实现平均分配而给每个盘子分配多少菜是“待求参数θ”,分配菜的手感就是“概率分布” 。于是若只有一个盘子,那概率分布就确定了(“把锅里的菜全部倒到一个盘子”这样的手感是个人都有吧),而因为有两个盘子,所以“给一个盘子到多少菜才好”的手感就有些模糊不定,不过我们可以采用上面的解法来实现最终目标。







请到「今天看啥」查看全文