Redian新闻
>
请问一下:如何定量的比较两个参数不同的分布的不同?
avatar
请问一下:如何定量的比较两个参数不同的分布的不同?# CS - 计算机科学
a*n
1
比如有两个正态分布,只是 参数 有些不同,如何定量的比较这两个分布的区别的大小?
谢谢!!
avatar
s*e
2
student T-test?

小?

【在 a***n 的大作中提到】
: 比如有两个正态分布,只是 参数 有些不同,如何定量的比较这两个分布的区别的大小?
: 谢谢!!

avatar
a*n
3
这个行么? 可否具体讲讲~~~

【在 s******e 的大作中提到】
: student T-test?
:
: 小?

avatar
b*d
4
Kullback–Leibler divergence
http://en.wikipedia.org/wiki/Kullback-Leibler_divergence

小?

【在 a***n 的大作中提到】
: 比如有两个正态分布,只是 参数 有些不同,如何定量的比较这两个分布的区别的大小?
: 谢谢!!

avatar
a*n
5
这个不知道 适不适合 一般的任意分布(不限正态分布)。
现在的情况是:根据一定数量的观察值,比如  N1个观察值,模拟出一个正态分布
,得出各个模型参数。然后,继续获得了更多的观察值,于是手里有了 N1+N2
个观察值,这个时候重新模拟出一个分布曲线,不知道 K-L divergence能否合适的表
达出由于新的观察值得加入而导致的分布的差异。
谢谢!

【在 b*********d 的大作中提到】
: Kullback–Leibler divergence
: http://en.wikipedia.org/wiki/Kullback-Leibler_divergence
:
: 小?

avatar
b*d
6
挂我第二作者我就讲!
kidding!
自己看看WIKI吧,应该是可以。而且很符合。
Kullback–Leibler divergence有叫information gain,非对称的function,真好用于
你的情况。
InfoGain(New|Old).

【在 a***n 的大作中提到】
: 这个不知道 适不适合 一般的任意分布(不限正态分布)。
: 现在的情况是:根据一定数量的观察值,比如  N1个观察值,模拟出一个正态分布
: ,得出各个模型参数。然后,继续获得了更多的观察值,于是手里有了 N1+N2
: 个观察值,这个时候重新模拟出一个分布曲线,不知道 K-L divergence能否合适的表
: 达出由于新的观察值得加入而导致的分布的差异。
: 谢谢!

avatar
a*n
7
汗~~ 挂你第二作者,俺这个作业就要0蛋了。。呵呵。 :P
作业要提一个新的idea,俺从来没有做过的方向,俺就寻思用个犄角旮旯的方法,这样就
谁也看不懂啦~~ 瓦卡卡。
谢谢,正在看这个Wiki, 以前用过information gain, 是decision tree里面经常提到
,不过没有怎么关注这个 K-L divergence... 看来现在不看不行了~~
多谢大牛帮助~

【在 b*********d 的大作中提到】
: 挂我第二作者我就讲!
: kidding!
: 自己看看WIKI吧,应该是可以。而且很符合。
: Kullback–Leibler divergence有叫information gain,非对称的function,真好用于
: 你的情况。
: InfoGain(New|Old).

avatar
a*n
8
不知道kld 对于 比较 joint distribution 是不是一样有很好的效果阿?

【在 b*********d 的大作中提到】
: 挂我第二作者我就讲!
: kidding!
: 自己看看WIKI吧,应该是可以。而且很符合。
: Kullback–Leibler divergence有叫information gain,非对称的function,真好用于
: 你的情况。
: InfoGain(New|Old).

avatar
a*n
9
KL-D 比较两个分布的时候好像只是给出一个值。
即: 如果分布 A, B, C
KL(A,B) = a, KL(A, C) = a. 虽然分布A与B之间的差别大小与 A和C之间的差别的大小
都是a,但是并不表明 B与C 分布相同。因为 KLD 只表示了分布的区别的大小,却没有
表示区别的方向。
有没有能够既表达两个分布的区别的值得大小,又表达分布差异的方向或者类似东西的
函数呢?
谢谢!

【在 a***n 的大作中提到】
: 不知道kld 对于 比较 joint distribution 是不是一样有很好的效果阿?
avatar
a*n
10
不知道用 KLD 辅以 mean 和 deviation 能不能表达两个分布的差别大小和方向?有没
有系统的,量化的讨论这个的阿?

【在 a***n 的大作中提到】
: KL-D 比较两个分布的时候好像只是给出一个值。
: 即: 如果分布 A, B, C
: KL(A,B) = a, KL(A, C) = a. 虽然分布A与B之间的差别大小与 A和C之间的差别的大小
: 都是a,但是并不表明 B与C 分布相同。因为 KLD 只表示了分布的区别的大小,却没有
: 表示区别的方向。
: 有没有能够既表达两个分布的区别的值得大小,又表达分布差异的方向或者类似东西的
: 函数呢?
: 谢谢!

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。