b*d
4 楼
Kullback–Leibler divergence
http://en.wikipedia.org/wiki/Kullback-Leibler_divergence
小?
【在 a***n 的大作中提到】
: 比如有两个正态分布,只是 参数 有些不同,如何定量的比较这两个分布的区别的大小?
: 谢谢!!
http://en.wikipedia.org/wiki/Kullback-Leibler_divergence
小?
【在 a***n 的大作中提到】
: 比如有两个正态分布,只是 参数 有些不同,如何定量的比较这两个分布的区别的大小?
: 谢谢!!
a*n
5 楼
这个不知道 适不适合 一般的任意分布(不限正态分布)。
现在的情况是:根据一定数量的观察值,比如 N1个观察值,模拟出一个正态分布
,得出各个模型参数。然后,继续获得了更多的观察值,于是手里有了 N1+N2
个观察值,这个时候重新模拟出一个分布曲线,不知道 K-L divergence能否合适的表
达出由于新的观察值得加入而导致的分布的差异。
谢谢!
【在 b*********d 的大作中提到】
: Kullback–Leibler divergence
: http://en.wikipedia.org/wiki/Kullback-Leibler_divergence
:
: 小?
现在的情况是:根据一定数量的观察值,比如 N1个观察值,模拟出一个正态分布
,得出各个模型参数。然后,继续获得了更多的观察值,于是手里有了 N1+N2
个观察值,这个时候重新模拟出一个分布曲线,不知道 K-L divergence能否合适的表
达出由于新的观察值得加入而导致的分布的差异。
谢谢!
【在 b*********d 的大作中提到】
: Kullback–Leibler divergence
: http://en.wikipedia.org/wiki/Kullback-Leibler_divergence
:
: 小?
b*d
6 楼
挂我第二作者我就讲!
kidding!
自己看看WIKI吧,应该是可以。而且很符合。
Kullback–Leibler divergence有叫information gain,非对称的function,真好用于
你的情况。
InfoGain(New|Old).
【在 a***n 的大作中提到】
: 这个不知道 适不适合 一般的任意分布(不限正态分布)。
: 现在的情况是:根据一定数量的观察值,比如 N1个观察值,模拟出一个正态分布
: ,得出各个模型参数。然后,继续获得了更多的观察值,于是手里有了 N1+N2
: 个观察值,这个时候重新模拟出一个分布曲线,不知道 K-L divergence能否合适的表
: 达出由于新的观察值得加入而导致的分布的差异。
: 谢谢!
kidding!
自己看看WIKI吧,应该是可以。而且很符合。
Kullback–Leibler divergence有叫information gain,非对称的function,真好用于
你的情况。
InfoGain(New|Old).
【在 a***n 的大作中提到】
: 这个不知道 适不适合 一般的任意分布(不限正态分布)。
: 现在的情况是:根据一定数量的观察值,比如 N1个观察值,模拟出一个正态分布
: ,得出各个模型参数。然后,继续获得了更多的观察值,于是手里有了 N1+N2
: 个观察值,这个时候重新模拟出一个分布曲线,不知道 K-L divergence能否合适的表
: 达出由于新的观察值得加入而导致的分布的差异。
: 谢谢!
a*n
7 楼
汗~~ 挂你第二作者,俺这个作业就要0蛋了。。呵呵。 :P
作业要提一个新的idea,俺从来没有做过的方向,俺就寻思用个犄角旮旯的方法,这样就
谁也看不懂啦~~ 瓦卡卡。
谢谢,正在看这个Wiki, 以前用过information gain, 是decision tree里面经常提到
,不过没有怎么关注这个 K-L divergence... 看来现在不看不行了~~
多谢大牛帮助~
【在 b*********d 的大作中提到】
: 挂我第二作者我就讲!
: kidding!
: 自己看看WIKI吧,应该是可以。而且很符合。
: Kullback–Leibler divergence有叫information gain,非对称的function,真好用于
: 你的情况。
: InfoGain(New|Old).
作业要提一个新的idea,俺从来没有做过的方向,俺就寻思用个犄角旮旯的方法,这样就
谁也看不懂啦~~ 瓦卡卡。
谢谢,正在看这个Wiki, 以前用过information gain, 是decision tree里面经常提到
,不过没有怎么关注这个 K-L divergence... 看来现在不看不行了~~
多谢大牛帮助~
【在 b*********d 的大作中提到】
: 挂我第二作者我就讲!
: kidding!
: 自己看看WIKI吧,应该是可以。而且很符合。
: Kullback–Leibler divergence有叫information gain,非对称的function,真好用于
: 你的情况。
: InfoGain(New|Old).
相关阅读
[转载] Job Ad for 海龟[转载] Brandeis is a decent research school.Vote Reminder---Sent out every 3-4 days有没有做过gesture recognition 的兄弟?Re: 顶一个,不如叫CompuSci顺口。U.S. CS Degree Production (CRA)HOW TO SOLVE THIS EQUATION?[转载] 怎么回答这种问题?Re: 急:已知(x,y)二次曲线的方程, 怎么在xy-plane上把它画出来呀?终于翻出这篇珍藏Re: Software Engineering 真烦Wanna discuss "autonomic computing"?Re: [转载] Re: 有没有人想过google为什么敢给大家1G得空间么?top Computer Vision Conf/JournalClarify Re: Proof by Contradition !!![转载] EE的兄弟们,知足吧Scientist: Four golden lessons(zz)急:已知(x,y)二次曲线的方程, 怎么在xy-plane上把它画出来呀?OK Re: [公告] CompSci 板的投票结果[转载] Is this true? [ZZ]普林斯顿大学图灵奖获得者姚期智正式来清华工作多芯片总线共享内存的访问保护问题