avatar
e*g
1
EM 算法可以用于解决 gaussian mixture 的分类估计。
能不能用于解决其它 mixture models 的分类估计?
例:我的问题是
Input: 数据是一个gaussian 和一个 uniform distribution 的混合
Output: 用EM算法来估计那个data sample是属于gaussian分布
那个data sample是属于uniform distribution分布。
可以或不可以,可否解释一下,或给个reference.
先谢了
avatar
l*o
2

俺觉得EM作为一种参数估计的渐进方法需要事先假设数据分布的嘛,否则你从什么地方
可以开始猜那些参数呢?如果你已经知道了数据分布,你可以两个分布的参数都用EM算
法得到,在比较那个分布的误差小点。但似乎这两种分布可以用更直接的方法估计参数
吧?

【在 e*****g 的大作中提到】
: EM 算法可以用于解决 gaussian mixture 的分类估计。
: 能不能用于解决其它 mixture models 的分类估计?
: 例:我的问题是
: Input: 数据是一个gaussian 和一个 uniform distribution 的混合
: Output: 用EM算法来估计那个data sample是属于gaussian分布
: 那个data sample是属于uniform distribution分布。
: 可以或不可以,可否解释一下,或给个reference.
: 先谢了

avatar
e*g
3


【在 l*******o 的大作中提到】
:
: 俺觉得EM作为一种参数估计的渐进方法需要事先假设数据分布的嘛,否则你从什么地方
: 可以开始猜那些参数呢?如果你已经知道了数据分布,你可以两个分布的参数都用EM算
: 法得到,在比较那个分布的误差小点。但似乎这两种分布可以用更直接的方法估计参数
: 吧?

avatar
R*N
4
参数初值应该可以随便给,
就是Markov Random Field吧,

【在 e*****g 的大作中提到】

avatar
e*g
5
能具体说说吗?

【在 R*******N 的大作中提到】
: 参数初值应该可以随便给,
: 就是Markov Random Field吧,

avatar
R*N
6
概而言之,对后验概率P(Q,V|O),
(Q是参数,V是变量,O是观察结果)
E-step计算P(V|O,Q),
M-step计算argmax logP(O,Q)=log{SIGMA(P(O,Q,V)},
如此迭代即得到大后验概率的Q,
Q是自由变量(free variable),
之所以引入log概率,
我认为可能是Bayes公式的缘故,
可参考:
Dempster, A., Laird, N., and Rubin, D. (1977). Maximum likelihood from incom-
plete data via the EM algorithm. Journal of the Royal Statistical Society,
Series B, 39(1):1–38.

【在 e*****g 的大作中提到】
: 能具体说说吗?
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。