EM 算法是一种迭代算法,1977年由 Dempster 等人总结提出,用于含有隐变 量的概率模型参数的极大似然估计,或 极大后验概率估计。EM 算法的每次迭代 由两步组成:E 步,求期望;M 步,求极 大。所以这一算法称为期望极大算法( ExpectationMaximization ), 简称EM 算法 。 极大似然估计是概率论在统计学中的应用 ,它是参数估计的方法之一。说的是已知 某个随机样本满足某种概率分布,但是其 中具体的参数不清楚,参数估计就是通过 若干次实验,观察其结果,利用结果推出 参数的大概值。 似然函数: 已知样本集X,X 是通过概率密度p(x| ) 抽取 。样本集X 中各个样本的联合概率: 为了便于分析,由于L( ) 是连乘的,还可以 定义对数似然函数,将其变成连加的: 求极值可以转换为以下方程: 的极大似然估计量表示为: 9.1EM 算法的引入 9.1.1 EM 算法 9.1.2 EM 算法的导出 9.1.3 EM 算法在非监督学习中的应用 9.2EM 算法的收敛性 例9.1 (三硬币模型)假设有3枚硬币,分别记 作A,B,C. 这些硬币正面出现的概率分别是,