p*7
2 楼
LinkQuest Inc., a fast growing and profitable advanced technology company
based in San Diego, California, is looking for an electronic circuit
engineer to expand its R&D effort of leading-edge medical imaging systems
and precision acoustic instruments.
Job duties and requirements are as follows
Design, implementation, debugging and testing of sophisticated analog
circuits and digital circuits based on DSP and micro controllers. Experience
in overall product development including conceptual design, feasibility
study, prototyping and commercialization is preferred. PCB layout skill is a
big plus. Please note this is NOT an IC/ASIC engineer position.
B.S. degree in electrical engineering is required. M.S. degree is strongly
preferred.
The candidate must be highly focused, result-oriented, hands-on and highly
motivated. New graduates with strong capability, excellent working ethics
and relevant extensive training are welcome to apply.
LinkQuest offers competitive compensation and other career and financial
potentials associated with a fast growing leading company in the industry.
More information of the company can be found at www.link-quest.com.
Please email your resume to s*****[email protected] if you are interested.
based in San Diego, California, is looking for an electronic circuit
engineer to expand its R&D effort of leading-edge medical imaging systems
and precision acoustic instruments.
Job duties and requirements are as follows
Design, implementation, debugging and testing of sophisticated analog
circuits and digital circuits based on DSP and micro controllers. Experience
in overall product development including conceptual design, feasibility
study, prototyping and commercialization is preferred. PCB layout skill is a
big plus. Please note this is NOT an IC/ASIC engineer position.
B.S. degree in electrical engineering is required. M.S. degree is strongly
preferred.
The candidate must be highly focused, result-oriented, hands-on and highly
motivated. New graduates with strong capability, excellent working ethics
and relevant extensive training are welcome to apply.
LinkQuest offers competitive compensation and other career and financial
potentials associated with a fast growing leading company in the industry.
More information of the company can be found at www.link-quest.com.
Please email your resume to s*****[email protected] if you are interested.
h*d
3 楼
我的485是公司律师办理的,配偶的485要自己办理。请问副申请人的filling地址在哪
里?我在CA的。
里?我在CA的。
d*e
4 楼
【 以下文字转载自 Faculty 讨论区 】
发信人: dde (DDT), 信区: Faculty
标 题: 牛人很神奇的简历啊
发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
Member, National Academy of Sciences, 2010.
Member, National Academy of Engineering, 2010.
今年NAE和NAS双料新科院士。。。
可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
那会是不是是个博士/博士后都能找到AP职位啊。。。
发信人: dde (DDT), 信区: Faculty
标 题: 牛人很神奇的简历啊
发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
Member, National Academy of Sciences, 2010.
Member, National Academy of Engineering, 2010.
今年NAE和NAS双料新科院士。。。
可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
那会是不是是个博士/博士后都能找到AP职位啊。。。
l*4
5 楼
本人拿到以下两个学校会计硕士的AD,佛罗里达大学的MACC和uiuc的MSA,不知道如何选
择。UICC的排名好,但是据说MSA这个项目不是很好。佛罗里达地方偏僻了些,会计排
名似乎也不如uiuc.我主要考虑的因素是两个学校的会计找工作的情况。
谢谢各位!
择。UICC的排名好,但是据说MSA这个项目不是很好。佛罗里达地方偏僻了些,会计排
名似乎也不如uiuc.我主要考虑的因素是两个学校的会计找工作的情况。
谢谢各位!
p*e
7 楼
这个烂公司又在招人了。
我有朋友在这个公司工作过。在San Diego当地,此公司在圈中声誉很差。
这是个中国人公司,就30个人左右,巨tough,大家工作都只说中文。老板是两个很虚
伪的中国人,经常骂人,而且是以很伤自尊的方式,类似于人身攻击。公司里全是中国
移民,等着办身份,待遇和工作环境也极差,号称高科技公司,连401k都没有,老板连
空调都不让开。大部分中国人在那里干不到两年就赶紧走人。这也是为什么该公司不断
贴帖子招人的原因。而且据说离开后想找老板写封推荐材料证明工作经历都被拒绝。
该公司从来不通过正式职业招聘网站招美国技术人员,只在各地的中国人论坛贴招聘启
事招想办身份的中国人,这样有利于压榨和控制。即使出现侵犯员工权益的地方,考虑
到身份需求,员工只好选择忍气吞声。
大家如果有的选择,千万别去这个地方。
Experience
a
【在 p******7 的大作中提到】
: LinkQuest Inc., a fast growing and profitable advanced technology company
: based in San Diego, California, is looking for an electronic circuit
: engineer to expand its R&D effort of leading-edge medical imaging systems
: and precision acoustic instruments.
: Job duties and requirements are as follows
: Design, implementation, debugging and testing of sophisticated analog
: circuits and digital circuits based on DSP and micro controllers. Experience
: in overall product development including conceptual design, feasibility
: study, prototyping and commercialization is preferred. PCB layout skill is a
: big plus. Please note this is NOT an IC/ASIC engineer position.
我有朋友在这个公司工作过。在San Diego当地,此公司在圈中声誉很差。
这是个中国人公司,就30个人左右,巨tough,大家工作都只说中文。老板是两个很虚
伪的中国人,经常骂人,而且是以很伤自尊的方式,类似于人身攻击。公司里全是中国
移民,等着办身份,待遇和工作环境也极差,号称高科技公司,连401k都没有,老板连
空调都不让开。大部分中国人在那里干不到两年就赶紧走人。这也是为什么该公司不断
贴帖子招人的原因。而且据说离开后想找老板写封推荐材料证明工作经历都被拒绝。
该公司从来不通过正式职业招聘网站招美国技术人员,只在各地的中国人论坛贴招聘启
事招想办身份的中国人,这样有利于压榨和控制。即使出现侵犯员工权益的地方,考虑
到身份需求,员工只好选择忍气吞声。
大家如果有的选择,千万别去这个地方。
Experience
a
【在 p******7 的大作中提到】
: LinkQuest Inc., a fast growing and profitable advanced technology company
: based in San Diego, California, is looking for an electronic circuit
: engineer to expand its R&D effort of leading-edge medical imaging systems
: and precision acoustic instruments.
: Job duties and requirements are as follows
: Design, implementation, debugging and testing of sophisticated analog
: circuits and digital circuits based on DSP and micro controllers. Experience
: in overall product development including conceptual design, feasibility
: study, prototyping and commercialization is preferred. PCB layout skill is a
: big plus. Please note this is NOT an IC/ASIC engineer position.
H*r
8 楼
He must have convinced senior professors of MIT that he was going to a
superstar of the field.
But it's quite easy to find a faculty position before 2000, after that ....
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
superstar of the field.
But it's quite easy to find a faculty position before 2000, after that ....
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
m*r
9 楼
uiuc
n*l
10 楼
这个人, 在machine learning领域, 那是超级大牛啊, top3肯定是没问题的.
P*l
11 楼
这不是迈克尔乔丹吗?
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
i*8
12 楼
这就是作为老美的优势了,
有些老美博士的时候屁都没有,然后再好学占了一个好坑找了牛学生出了一堆牛成果,
美国这个系统你也分不出是谁的贡献然后就成名了。
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
有些老美博士的时候屁都没有,然后再好学占了一个好坑找了牛学生出了一堆牛成果,
美国这个系统你也分不出是谁的贡献然后就成名了。
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
w*n
17 楼
I think he is more famous for his achievement in NBA.
d*e
22 楼
这个吗?
University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
Research advisor: Prof. Chung S. Yang
Rutgers University, M.Sc. in Computer Science (1996–1998).
Research advisor: Prof. Casimir Kulikowski
Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
Research advisor: Prof. Jun Zhao
实在是佩服啊
【在 d*****u 的大作中提到】
: Eric Xing也是折腾高手啊
: 物理本科,生物PhD
: 然后不过瘾又去念个CS的PhD
University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
Research advisor: Prof. Chung S. Yang
Rutgers University, M.Sc. in Computer Science (1996–1998).
Research advisor: Prof. Casimir Kulikowski
Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
Research advisor: Prof. Jun Zhao
实在是佩服啊
【在 d*****u 的大作中提到】
: Eric Xing也是折腾高手啊
: 物理本科,生物PhD
: 然后不过瘾又去念个CS的PhD
d*e
23 楼
一般人哪有这个毅力啊
1999).
【在 d*e 的大作中提到】
: 这个吗?
: University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
: Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
: Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
: Research advisor: Prof. Chung S. Yang
: Rutgers University, M.Sc. in Computer Science (1996–1998).
: Research advisor: Prof. Casimir Kulikowski
: Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
: Research advisor: Prof. Jun Zhao
: 实在是佩服啊
1999).
【在 d*e 的大作中提到】
: 这个吗?
: University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
: Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
: Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
: Research advisor: Prof. Chung S. Yang
: Rutgers University, M.Sc. in Computer Science (1996–1998).
: Research advisor: Prof. Casimir Kulikowski
: Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
: Research advisor: Prof. Jun Zhao
: 实在是佩服啊
L*d
24 楼
看来大家对统计的状况不太清楚啊
很多统计phd不需要paper就可以毕业,甚至不需要paper就可以找到faculty
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
很多统计phd不需要paper就可以毕业,甚至不需要paper就可以找到faculty
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
b*y
31 楼
About five years ago, I noticed MJ was not a NAS/MAE member yet despite his
tremendous impact on ML. It is not surprising to see his achievements
finally got recognized now. For those who admire MJ's fame, you might be
surprised that he is not an ACM Fellow yet. It is a fact that ML is not
everything even within CS.
To the best of my knowledge, there are only two polymaths in the modern
science: John Von Neumann and Herbert A. Simon. It is my personal opinion
that everyone has his own threshold
tremendous impact on ML. It is not surprising to see his achievements
finally got recognized now. For those who admire MJ's fame, you might be
surprised that he is not an ACM Fellow yet. It is a fact that ML is not
everything even within CS.
To the best of my knowledge, there are only two polymaths in the modern
science: John Von Neumann and Herbert A. Simon. It is my personal opinion
that everyone has his own threshold
a*a
32 楼
his
+ Poincare
superhero.
after
【在 b******y 的大作中提到】
: About five years ago, I noticed MJ was not a NAS/MAE member yet despite his
: tremendous impact on ML. It is not surprising to see his achievements
: finally got recognized now. For those who admire MJ's fame, you might be
: surprised that he is not an ACM Fellow yet. It is a fact that ML is not
: everything even within CS.
: To the best of my knowledge, there are only two polymaths in the modern
: science: John Von Neumann and Herbert A. Simon. It is my personal opinion
: that everyone has his own threshold
f*r
37 楼
此兄能说会写,雄心和毅力非一般人可比。
但是感觉他自立门户以后做的东西不如以前了。
当然对他还是佩服得紧啊。
1999).
【在 d*e 的大作中提到】
: 这个吗?
: University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
: Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
: Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
: Research advisor: Prof. Chung S. Yang
: Rutgers University, M.Sc. in Computer Science (1996–1998).
: Research advisor: Prof. Casimir Kulikowski
: Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
: Research advisor: Prof. Jun Zhao
: 实在是佩服啊
但是感觉他自立门户以后做的东西不如以前了。
当然对他还是佩服得紧啊。
1999).
【在 d*e 的大作中提到】
: 这个吗?
: University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
: Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
: Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
: Research advisor: Prof. Chung S. Yang
: Rutgers University, M.Sc. in Computer Science (1996–1998).
: Research advisor: Prof. Casimir Kulikowski
: Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
: Research advisor: Prof. Jun Zhao
: 实在是佩服啊
s*g
45 楼
中国人做ML,data mining,PR的多
总以为这几样就是代表AI了
我知道香港某牛校有很多做ML,DM很厉害的教授,但是在美国听到人表扬最多的还是一
个做logic的,一年只发1、2篇文章的教授
【在 r********3 的大作中提到】
: 这不就是传说中的Michael Jordan吗?他怎么只能用牛人来形容啊,他应该可以归结到
: 神人的地步。他的学生,Andraw N.g这些都超级大牛。他教出来的学生形成了一个“
: Jordan系”,把AI最牛的NIPS conference垄断了,从而导致了ICML这些的成长。
: 看过他好多Machine Learning的paper,他在AI方面的功底,早已经超越的普通人类的
: 境界。
总以为这几样就是代表AI了
我知道香港某牛校有很多做ML,DM很厉害的教授,但是在美国听到人表扬最多的还是一
个做logic的,一年只发1、2篇文章的教授
【在 r********3 的大作中提到】
: 这不就是传说中的Michael Jordan吗?他怎么只能用牛人来形容啊,他应该可以归结到
: 神人的地步。他的学生,Andraw N.g这些都超级大牛。他教出来的学生形成了一个“
: Jordan系”,把AI最牛的NIPS conference垄断了,从而导致了ICML这些的成长。
: 看过他好多Machine Learning的paper,他在AI方面的功底,早已经超越的普通人类的
: 境界。
l*w
48 楼
Jordan不光学术好,讲课也是一个非常好的老师。
N*D
52 楼
所以说你还很年轻嘛
在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
analysis 也不是spectral 的。
希望牛人们使劲在nips灌水,别到其它地方害人了。
【在 r********3 的大作中提到】
: support vector machine,我觉得只是用数学系的quadratic programming来套用在分
: 类优化问题上吧。做CS的提出这个挺不错的。但是这个作者本身就是做数学出身的啊。
: 分类模型不是他提出的,同时quadratic programming也不是他发明的。。。
: 如果这样说起来,M.J.也有他的工作啊。比如说,我看过早年他们做过的active
: learning,spectral clustering,虽然都是合作的。。。
在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
analysis 也不是spectral 的。
希望牛人们使劲在nips灌水,别到其它地方害人了。
【在 r********3 的大作中提到】
: support vector machine,我觉得只是用数学系的quadratic programming来套用在分
: 类优化问题上吧。做CS的提出这个挺不错的。但是这个作者本身就是做数学出身的啊。
: 分类模型不是他提出的,同时quadratic programming也不是他发明的。。。
: 如果这样说起来,M.J.也有他的工作啊。比如说,我看过早年他们做过的active
: learning,spectral clustering,虽然都是合作的。。。
G*7
56 楼
svm就是个glorified template matcher,
你还是多看看hinton系的东西吧。
btw 四大系
逻辑系,老jm/mm和子弟;
jordan系;
神经系,hinton, lecun;
svm系,现在基本也就是在英国、欧陆、澳洲有些影响。
作。
【在 N**D 的大作中提到】
: 所以说你还很年轻嘛
: 在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
: spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
: 类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
: 一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
: analysis 也不是spectral 的。
: 希望牛人们使劲在nips灌水,别到其它地方害人了。
你还是多看看hinton系的东西吧。
btw 四大系
逻辑系,老jm/mm和子弟;
jordan系;
神经系,hinton, lecun;
svm系,现在基本也就是在英国、欧陆、澳洲有些影响。
作。
【在 N**D 的大作中提到】
: 所以说你还很年轻嘛
: 在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
: spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
: 类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
: 一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
: analysis 也不是spectral 的。
: 希望牛人们使劲在nips灌水,别到其它地方害人了。
I*2
62 楼
Agree!
MJ算得上学霸吧,但是单从影响力上看比vapnik差了不止一个量级吧。
vpnik的citation最高的超过1万7,是他自己的书,带动了一个领域发展和影响了若干相关
应用领域;
MJ最高的ciatation也就2k不到吧,而且自己做老板的第三作者paper
这2K里面他徒子徒孙跟着灌水的不少吧。带动了一个领域中某几个topic的发展而已。
这能写教科书的和灌paper的能一起比吗 ...
vpnik对应就是写九阴真经的黄裳
MJ充其量也就是周伯通自创了左右互搏术而已。
作。
【在 N**D 的大作中提到】
: 所以说你还很年轻嘛
: 在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
: spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
: 类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
: 一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
: analysis 也不是spectral 的。
: 希望牛人们使劲在nips灌水,别到其它地方害人了。
MJ算得上学霸吧,但是单从影响力上看比vapnik差了不止一个量级吧。
vpnik的citation最高的超过1万7,是他自己的书,带动了一个领域发展和影响了若干相关
应用领域;
MJ最高的ciatation也就2k不到吧,而且自己做老板的第三作者paper
这2K里面他徒子徒孙跟着灌水的不少吧。带动了一个领域中某几个topic的发展而已。
这能写教科书的和灌paper的能一起比吗 ...
vpnik对应就是写九阴真经的黄裳
MJ充其量也就是周伯通自创了左右互搏术而已。
作。
【在 N**D 的大作中提到】
: 所以说你还很年轻嘛
: 在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
: spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
: 类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
: 一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
: analysis 也不是spectral 的。
: 希望牛人们使劲在nips灌水,别到其它地方害人了。
C*e
71 楼
看了后面好多comments。。。汗
首先,machine learning算属于CS下面,但是有自己的圈子,某种意义上above了CS的
圈子,和math, stat,neuro science等,有很多联系,而且是非常紧密的联系。圈子也
是自己建立的,比如NIPS,就是有专门的机构来组织,和IEEE,ACM都没有关系。印象
中,NIPS,ICML,AISTATS,UAI,COLT,这5个会议,都似乎和IEEE/ACM没关系。所以评上一
个ACM的fellow与否,无管紧要。
其次,ML还是相对年轻的学科,像是john lafferty,lawrence saul这样的超级大牛,
40来岁左右而已,而且JL看着也就30多多的样子。hinton老一些,他是
从AI年代就开始做了,不是ML出身。MJ学生这么多了,他自己也就50多吧,不算
很大。有些那种到到了年龄才能评的fellow,自然不会太多
评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
出路,声誉等等。综合来看,MJ绝对是超级大牛
SVM的解法可以看成是QP,但是他model里面的large mar
【在 d*e 的大作中提到】
:
: ~~~~ 你是鸡丁吗?
首先,machine learning算属于CS下面,但是有自己的圈子,某种意义上above了CS的
圈子,和math, stat,neuro science等,有很多联系,而且是非常紧密的联系。圈子也
是自己建立的,比如NIPS,就是有专门的机构来组织,和IEEE,ACM都没有关系。印象
中,NIPS,ICML,AISTATS,UAI,COLT,这5个会议,都似乎和IEEE/ACM没关系。所以评上一
个ACM的fellow与否,无管紧要。
其次,ML还是相对年轻的学科,像是john lafferty,lawrence saul这样的超级大牛,
40来岁左右而已,而且JL看着也就30多多的样子。hinton老一些,他是
从AI年代就开始做了,不是ML出身。MJ学生这么多了,他自己也就50多吧,不算
很大。有些那种到到了年龄才能评的fellow,自然不会太多
评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
出路,声誉等等。综合来看,MJ绝对是超级大牛
SVM的解法可以看成是QP,但是他model里面的large mar
【在 d*e 的大作中提到】
:
: ~~~~ 你是鸡丁吗?
G*7
74 楼
hinton 60+了
几年前去nips居然有一个workshop是庆祝他60生日。
最早nips几乎是他家人掌握的
【在 C*********e 的大作中提到】
: 看了后面好多comments。。。汗
: 首先,machine learning算属于CS下面,但是有自己的圈子,某种意义上above了CS的
: 圈子,和math, stat,neuro science等,有很多联系,而且是非常紧密的联系。圈子也
: 是自己建立的,比如NIPS,就是有专门的机构来组织,和IEEE,ACM都没有关系。印象
: 中,NIPS,ICML,AISTATS,UAI,COLT,这5个会议,都似乎和IEEE/ACM没关系。所以评上一
: 个ACM的fellow与否,无管紧要。
: 其次,ML还是相对年轻的学科,像是john lafferty,lawrence saul这样的超级大牛,
: 40来岁左右而已,而且JL看着也就30多多的样子。hinton老一些,他是
: 从AI年代就开始做了,不是ML出身。MJ学生这么多了,他自己也就50多吧,不算
: 很大。有些那种到到了年龄才能评的fellow,自然不会太多
几年前去nips居然有一个workshop是庆祝他60生日。
最早nips几乎是他家人掌握的
【在 C*********e 的大作中提到】
: 看了后面好多comments。。。汗
: 首先,machine learning算属于CS下面,但是有自己的圈子,某种意义上above了CS的
: 圈子,和math, stat,neuro science等,有很多联系,而且是非常紧密的联系。圈子也
: 是自己建立的,比如NIPS,就是有专门的机构来组织,和IEEE,ACM都没有关系。印象
: 中,NIPS,ICML,AISTATS,UAI,COLT,这5个会议,都似乎和IEEE/ACM没关系。所以评上一
: 个ACM的fellow与否,无管紧要。
: 其次,ML还是相对年轻的学科,像是john lafferty,lawrence saul这样的超级大牛,
: 40来岁左右而已,而且JL看着也就30多多的样子。hinton老一些,他是
: 从AI年代就开始做了,不是ML出身。MJ学生这么多了,他自己也就50多吧,不算
: 很大。有些那种到到了年龄才能评的fellow,自然不会太多
s*y
76 楼
ML的派系,
周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
位。
SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
效果也很好。
PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
年就见过,不知道大家说的是那一本。
【在 G*****7 的大作中提到】
: 正确的解说是
: 他的graphical models书写了那么多年还没写完。
周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
位。
SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
效果也很好。
PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
年就见过,不知道大家说的是那一本。
【在 G*****7 的大作中提到】
: 正确的解说是
: 他的graphical models书写了那么多年还没写完。
w*g
77 楼
我外行,觉得现在真正能够实用的程序就libsvm一个。别的paper里写的那些美好的算
法怎么就没一个拿来能用的软件呢?
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
法怎么就没一个拿来能用的软件呢?
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
G*7
79 楼
周志华不如香港的Xu Lei
Bayesian Ying-Yang System and Harmony Learning Theory
采撷阴阳,济天下之和谐大成
xu出于jordan而胜于jordan
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
Bayesian Ying-Yang System and Harmony Learning Theory
采撷阴阳,济天下之和谐大成
xu出于jordan而胜于jordan
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
G*7
80 楼
和bishop合写的。早就有draft电子版了,只在几个学校做内部教材。
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
b*g
84 楼
Hinton is no doubt better than MJ.
f*r
86 楼
http://videolectures.net/mlss03_vapnik_ei/
【在 l******e 的大作中提到】
: 没听过vapnik,
: 有视频没给一个?
【在 l******e 的大作中提到】
: 没听过vapnik,
: 有视频没给一个?
f*r
89 楼
开山祖师爷是Hammersley-Clifford吧。
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
s*y
90 楼
我觉得说ISING开山也行,ISING的工作是获得诺贝尔奖的,是统计物理里的经典。
JORDAN为什么在EECS吃香,因为GRAPHICAL MODEL统一了MRF,HMM,等等。而MRF和HMM
在信号和图像处理上EECS的人用的很多,所以接受JORDAN的东西没困难。总体说,
JORDAN还是偏计算,真正理论的东西不多,统计的人重理论,重模型,对他的东西不感
兴趣。
GRAPHICAL MODEL现在在BIOINFORMATICS上已经站稳了,经过KOLLER,FRIEDMAN,ERIC
XING 这些人的推动,在NATURE,SCIENCE上的文章也用了这种模型,甚至PEER靠这个拿
了NIH的R01,我因为这是GRAPHICAL MODEL最成功的应用。
这个领域我比较偏爱,有一次问了ANDREW YAO,他一把年纪了还做percolation theory
,
【在 f*******r 的大作中提到】
:
: 开山祖师爷是Hammersley-Clifford吧。
JORDAN为什么在EECS吃香,因为GRAPHICAL MODEL统一了MRF,HMM,等等。而MRF和HMM
在信号和图像处理上EECS的人用的很多,所以接受JORDAN的东西没困难。总体说,
JORDAN还是偏计算,真正理论的东西不多,统计的人重理论,重模型,对他的东西不感
兴趣。
GRAPHICAL MODEL现在在BIOINFORMATICS上已经站稳了,经过KOLLER,FRIEDMAN,ERIC
XING 这些人的推动,在NATURE,SCIENCE上的文章也用了这种模型,甚至PEER靠这个拿
了NIH的R01,我因为这是GRAPHICAL MODEL最成功的应用。
这个领域我比较偏爱,有一次问了ANDREW YAO,他一把年纪了还做percolation theory
,
【在 f*******r 的大作中提到】
:
: 开山祖师爷是Hammersley-Clifford吧。
P*P
93 楼
连ising都扯上了....
接着可以上CN Yang了.哈哈
HMM
ERIC
theory
【在 s***y 的大作中提到】
: 我觉得说ISING开山也行,ISING的工作是获得诺贝尔奖的,是统计物理里的经典。
: JORDAN为什么在EECS吃香,因为GRAPHICAL MODEL统一了MRF,HMM,等等。而MRF和HMM
: 在信号和图像处理上EECS的人用的很多,所以接受JORDAN的东西没困难。总体说,
: JORDAN还是偏计算,真正理论的东西不多,统计的人重理论,重模型,对他的东西不感
: 兴趣。
: GRAPHICAL MODEL现在在BIOINFORMATICS上已经站稳了,经过KOLLER,FRIEDMAN,ERIC
: XING 这些人的推动,在NATURE,SCIENCE上的文章也用了这种模型,甚至PEER靠这个拿
: 了NIH的R01,我因为这是GRAPHICAL MODEL最成功的应用。
: 这个领域我比较偏爱,有一次问了ANDREW YAO,他一把年纪了还做percolation theory
: ,
接着可以上CN Yang了.哈哈
HMM
ERIC
theory
【在 s***y 的大作中提到】
: 我觉得说ISING开山也行,ISING的工作是获得诺贝尔奖的,是统计物理里的经典。
: JORDAN为什么在EECS吃香,因为GRAPHICAL MODEL统一了MRF,HMM,等等。而MRF和HMM
: 在信号和图像处理上EECS的人用的很多,所以接受JORDAN的东西没困难。总体说,
: JORDAN还是偏计算,真正理论的东西不多,统计的人重理论,重模型,对他的东西不感
: 兴趣。
: GRAPHICAL MODEL现在在BIOINFORMATICS上已经站稳了,经过KOLLER,FRIEDMAN,ERIC
: XING 这些人的推动,在NATURE,SCIENCE上的文章也用了这种模型,甚至PEER靠这个拿
: 了NIH的R01,我因为这是GRAPHICAL MODEL最成功的应用。
: 这个领域我比较偏爱,有一次问了ANDREW YAO,他一把年纪了还做percolation theory
: ,
P*P
94 楼
这里讨论vapnic跟MJ的, 先把他两的书都看了再说把.
只同意这句话
评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
出路,声誉等等。
只同意这句话
评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
出路,声誉等等。
I*2
95 楼
不看他们的书也是可以评价的,否则学术大拿们就跟江湖骗子一个级别了,专门蒙外行
人。
vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
因斯坦还牛逼。
这种级别人物,看看citation就知道他们的影响力了。
vapnic,唯一作者,
The nature of statistical learning theory, citation 超过1万7, 2000年出版的
Statistical learning theory citation 超过1万3, 1998年出版的
MJ, 第三作者,最高citation不到2K
【在 P***P 的大作中提到】
: 这里讨论vapnic跟MJ的, 先把他两的书都看了再说把.
: 只同意这句话
: 评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
: 出路,声誉等等。
人。
vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
因斯坦还牛逼。
这种级别人物,看看citation就知道他们的影响力了。
vapnic,唯一作者,
The nature of statistical learning theory, citation 超过1万7, 2000年出版的
Statistical learning theory citation 超过1万3, 1998年出版的
MJ, 第三作者,最高citation不到2K
【在 P***P 的大作中提到】
: 这里讨论vapnic跟MJ的, 先把他两的书都看了再说把.
: 只同意这句话
: 评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
: 出路,声誉等等。
j*n
96 楼
我也觉得看一个人牛不牛要看他自己的工作,不是看他学生的出路.
【在 I*****2 的大作中提到】
: 不看他们的书也是可以评价的,否则学术大拿们就跟江湖骗子一个级别了,专门蒙外行
: 人。
: vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
: 历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
: 因斯坦还牛逼。
: 这种级别人物,看看citation就知道他们的影响力了。
: vapnic,唯一作者,
: The nature of statistical learning theory, citation 超过1万7, 2000年出版的
: Statistical learning theory citation 超过1万3, 1998年出版的
:
【在 I*****2 的大作中提到】
: 不看他们的书也是可以评价的,否则学术大拿们就跟江湖骗子一个级别了,专门蒙外行
: 人。
: vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
: 历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
: 因斯坦还牛逼。
: 这种级别人物,看看citation就知道他们的影响力了。
: vapnic,唯一作者,
: The nature of statistical learning theory, citation 超过1万7, 2000年出版的
: Statistical learning theory citation 超过1万3, 1998年出版的
:
p*g
99 楼
对于 Vapnik 的书,cite 它的人中有几个真正读过超过10页,几个扫过一下目录,几
个瞄过一眼封面,几个根本连 ebook 都没下载过。
个瞄过一眼封面,几个根本连 ebook 都没下载过。
p*g
101 楼
很多人其实就是想 cite 一个概念,懒得去查,直接就引 Vapnik 了事
p*o
102 楼
原来是 M. J. 的 CV 啊, 这个是牛人啊.
p*g
109 楼
引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
创的工作。
MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
创的工作。
MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
N*D
110 楼
michael who?
其实说巨人吧,Gene Golub, 就是写Matrix Computation, SVD, 很牛地。所有的
machine learning, data mining, 最后都要用。
【在 p*********g 的大作中提到】
: 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
: 。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
: 其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
: 创的工作。
: MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
: 其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
其实说巨人吧,Gene Golub, 就是写Matrix Computation, SVD, 很牛地。所有的
machine learning, data mining, 最后都要用。
【在 p*********g 的大作中提到】
: 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
: 。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
: 其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
: 创的工作。
: MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
: 其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
p*g
111 楼
Kearns.
Gene Golub,呵呵,还是小众些吧,否则牛顿都要算了,人家发明了微积分。
Gene Golub,呵呵,还是小众些吧,否则牛顿都要算了,人家发明了微积分。
d*e
113 楼
呵呵,你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
SVM在各个领域都有成功的应用,并且已经被大范围推广,MJ有哪个工作可以比肩?
【在 p*********g 的大作中提到】
: 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
: 。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
: 其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
: 创的工作。
: MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
: 其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
SVM在各个领域都有成功的应用,并且已经被大范围推广,MJ有哪个工作可以比肩?
【在 p*********g 的大作中提到】
: 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
: 。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
: 其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
: 创的工作。
: MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
: 其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
p*g
114 楼
>> 你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
有点 upset。当然不怪他,毕竟当时在苏联。
感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc
呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
有点 upset。当然不怪他,毕竟当时在苏联。
感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc
B*x
115 楼
http://blog.sina.com.cn/s/blog_661c16d00100kc51.html
机器学习大家谈(转贴)(2010-03-17 21:42:19)转载
标签:杂谈 分类:学术科研
闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,
并且仅局
限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以
不对的地方大
家仅当一笑。
Machine Learning 大家(1):M. I. Jordan
在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐
镇一方,
在附近的两所名校(加stanford)中都可以说无出其右者,stanford的Daphne Koller
虽然也
声名遐迩,但是和Jordan比还是有一段距离。
Jordan身兼stat和cs两个系的教授,从他身上可以看出Stat和ML的融合。
Jordan 最先专注于mixtures of experts,并迅速奠定了自己的地位,我们哈尔滨
工业大
学的校友徐雷跟他做博后期间,也在这个方向上沾光不少
机器学习大家谈(转贴)(2010-03-17 21:42:19)转载
标签:杂谈 分类:学术科研
闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,
并且仅局
限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以
不对的地方大
家仅当一笑。
Machine Learning 大家(1):M. I. Jordan
在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐
镇一方,
在附近的两所名校(加stanford)中都可以说无出其右者,stanford的Daphne Koller
虽然也
声名遐迩,但是和Jordan比还是有一段距离。
Jordan身兼stat和cs两个系的教授,从他身上可以看出Stat和ML的融合。
Jordan 最先专注于mixtures of experts,并迅速奠定了自己的地位,我们哈尔滨
工业大
学的校友徐雷跟他做博后期间,也在这个方向上沾光不少
c*r
116 楼
说到引用,这个文章很夸张
Dempster, A.P.; Laird, N.M.; Rubin, D.B. (1977). "Maximum Likelihood from
Incomplete Data via the EM Algorithm".
citation > 20k
另外Dempster
Covariance selection Biometrics 28, 157-175, 1972
提出了undirected graphical model for Gaussian distribution
可惜没啥人知道这个。。。
MJ也就是把graphical model在cs中应用发扬光大,算不上什么顶级大师吧。
【在 I*****2 的大作中提到】
: 不看他们的书也是可以评价的,否则学术大拿们就跟江湖骗子一个级别了,专门蒙外行
: 人。
: vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
: 历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
: 因斯坦还牛逼。
: 这种级别人物,看看citation就知道他们的影响力了。
: vapnic,唯一作者,
: The nature of statistical learning theory, citation 超过1万7, 2000年出版的
: Statistical learning theory citation 超过1万3, 1998年出版的
:
Dempster, A.P.; Laird, N.M.; Rubin, D.B. (1977). "Maximum Likelihood from
Incomplete Data via the EM Algorithm".
citation > 20k
另外Dempster
Covariance selection Biometrics 28, 157-175, 1972
提出了undirected graphical model for Gaussian distribution
可惜没啥人知道这个。。。
MJ也就是把graphical model在cs中应用发扬光大,算不上什么顶级大师吧。
【在 I*****2 的大作中提到】
: 不看他们的书也是可以评价的,否则学术大拿们就跟江湖骗子一个级别了,专门蒙外行
: 人。
: vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
: 历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
: 因斯坦还牛逼。
: 这种级别人物,看看citation就知道他们的影响力了。
: vapnic,唯一作者,
: The nature of statistical learning theory, citation 超过1万7, 2000年出版的
: Statistical learning theory citation 超过1万3, 1998年出版的
:
i*8
117 楼
就目前而言,还真看不出来MJ有什么那得出手的东西20年后人还能记得住。
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
: 呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
: 如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
: graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
: 其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
: 有点 upset。当然不怪他,毕竟当时在苏联。
: 感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
: 呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
: 如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
: graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
: 其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
: 有点 upset。当然不怪他,毕竟当时在苏联。
: 感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc
p*g
119 楼
>> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
mit任教而David Blei在cmu做博后,
>> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
构结合起来,赫赫有名。
Taskar? Thochantaridis/Altun?
mit任教而David Blei在cmu做博后,
>> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
构结合起来,赫赫有名。
Taskar? Thochantaridis/Altun?
G*7
120 楼
chinese restaurant process
【在 i*********8 的大作中提到】
: 就目前而言,还真看不出来MJ有什么那得出手的东西20年后人还能记得住。
:
: Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
: 搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
: develop着发,就像大多数人一样,
: Vapnik 比,毕竟年龄相差20岁了。
: 联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 i*********8 的大作中提到】
: 就目前而言,还真看不出来MJ有什么那得出手的东西20年后人还能记得住。
:
: Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
: 搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
: develop着发,就像大多数人一样,
: Vapnik 比,毕竟年龄相差20岁了。
: 联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
N*D
122 楼
摆脱别从国内转这种脑残文章
【在 B****x 的大作中提到】
: http://blog.sina.com.cn/s/blog_661c16d00100kc51.html
: 机器学习大家谈(转贴)(2010-03-17 21:42:19)转载
: 标签:杂谈 分类:学术科研
: 闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,
: 并且仅局
: 限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以
: 不对的地方大
: 家仅当一笑。
: Machine Learning 大家(1):M. I. Jordan
: 在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐
【在 B****x 的大作中提到】
: http://blog.sina.com.cn/s/blog_661c16d00100kc51.html
: 机器学习大家谈(转贴)(2010-03-17 21:42:19)转载
: 标签:杂谈 分类:学术科研
: 闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,
: 并且仅局
: 限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以
: 不对的地方大
: 家仅当一笑。
: Machine Learning 大家(1):M. I. Jordan
: 在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐
N*D
123 楼
the essense of svm is "margin", which is a regulazier term
most other methods , first is penalty term, then regularizer term
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
: mit任教而David Blei在cmu做博后,
: >> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
: 构结合起来,赫赫有名。
: Taskar? Thochantaridis/Altun?
most other methods , first is penalty term, then regularizer term
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
: mit任教而David Blei在cmu做博后,
: >> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
: 构结合起来,赫赫有名。
: Taskar? Thochantaridis/Altun?
N*D
125 楼
这个个搞graphical model的说起svm, 别说"notthing but ...", "can be obtained
from this .... prob model..." etc
有本事提出个更好的
SVM很运气,根本没有对应的noise model
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
: mit任教而David Blei在cmu做博后,
: >> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
: 构结合起来,赫赫有名。
: Taskar? Thochantaridis/Altun?
from this .... prob model..." etc
有本事提出个更好的
SVM很运气,根本没有对应的noise model
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
: mit任教而David Blei在cmu做博后,
: >> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
: 构结合起来,赫赫有名。
: Taskar? Thochantaridis/Altun?
p*g
127 楼
kernel 用在 SVM 也不是 Vapnik 的idea。
margin 这个东东其实统计、规划里早就有了。
当然话说回来,graphical model 里的很多东西统计里也早就有了,machine learning
的人把它发扬光大。
不讨论了。
margin 这个东东其实统计、规划里早就有了。
当然话说回来,graphical model 里的很多东西统计里也早就有了,machine learning
的人把它发扬光大。
不讨论了。
f*r
135 楼
Wahba也就是歪打正招吧,等SVM热起来了她才又回过头去炒冷饭。
她的那篇71文章无非是证明了光滑spline(或是基于某种regularization
的问题,她并没有提出regularization这个观念而只是考虑了
光滑spline那类特例)的解以某种形式存在,对generalization
并没有触及。svm配上rkhs恰好可以用她以前的结果。
vapnik最本质的贡献并不是光大rkhs而是通过vc维数给出了基于
ERM 这类学习方法的一个理论刻划。SVM恰好是他这套理论的第
一个实例。
【在 d******e 的大作中提到】
: Kernel的确是Grace Wahba最先用在Spline中的,但根本没几个人重视,呵呵。
: 你们说MJ把Graphical Model发扬光大,凭什么不允许Vapnik去光大RKHS?
:
: learning
她的那篇71文章无非是证明了光滑spline(或是基于某种regularization
的问题,她并没有提出regularization这个观念而只是考虑了
光滑spline那类特例)的解以某种形式存在,对generalization
并没有触及。svm配上rkhs恰好可以用她以前的结果。
vapnik最本质的贡献并不是光大rkhs而是通过vc维数给出了基于
ERM 这类学习方法的一个理论刻划。SVM恰好是他这套理论的第
一个实例。
【在 d******e 的大作中提到】
: Kernel的确是Grace Wahba最先用在Spline中的,但根本没几个人重视,呵呵。
: 你们说MJ把Graphical Model发扬光大,凭什么不允许Vapnik去光大RKHS?
:
: learning
f*r
136 楼
p*g
141 楼
本来不想再讨论了,有几点看来还是讲讲明白。
Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
在 AT&T 的同事。
Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
, Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
Vapnik 一人。当然这点其实并不重要,东西好就行了。
一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
learning 的东西都没有什么实用意义。在我们这个年代,frequentist 的方法自然会
盛行,因为我们有了_一定的_计算能力。随着计算技术的
Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
在 AT&T 的同事。
Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
, Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
Vapnik 一人。当然这点其实并不重要,东西好就行了。
一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
learning 的东西都没有什么实用意义。在我们这个年代,frequentist 的方法自然会
盛行,因为我们有了_一定的_计算能力。随着计算技术的
N*D
142 楼
还Bayesian
现在计算机那么厉害,有没有看看最大可解多大的问题? what is prior? why choose
one prior over another???? well, I know hyper prior?
当然,graphical model最好的地方是可以无限制灌水, Chinese resturant, India
buffeet, Mexico grill, you name it
再说,知道啥时ground breaking?
那些结合bayes 的bound, TTI的几个人做的,很牵强。最重要的,没有导致一个新的算
法,比如SVM.
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
现在计算机那么厉害,有没有看看最大可解多大的问题? what is prior? why choose
one prior over another???? well, I know hyper prior?
当然,graphical model最好的地方是可以无限制灌水, Chinese resturant, India
buffeet, Mexico grill, you name it
再说,知道啥时ground breaking?
那些结合bayes 的bound, TTI的几个人做的,很牵强。最重要的,没有导致一个新的算
法,比如SVM.
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
N*D
144 楼
这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
well, you Bayes guy can see "we can get this from this this and that that
grphacial model, with this set of bullsh*t prior"
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
well, you Bayes guy can see "we can get this from this this and that that
grphacial model, with this set of bullsh*t prior"
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
p*g
145 楼
> 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
你这个是完全的误解,这里很多人就是喜欢只及一点、不及其余。最后一次 respond
to you。
这些和 Vapnik 的东西都是缺一不可、相辅相成的。在实用上,没有soft margin 和
kernel,没有可能 work,也就不可能在90年代中叶把龙头从 neural network 那里扳
过来,SVM 也不会有多少人用。但这并不损害 Vapnik 学习理论的价值,而且显然这个比soft margin 和 kernel 更重要。
你这个是完全的误解,这里很多人就是喜欢只及一点、不及其余。最后一次 respond
to you。
这些和 Vapnik 的东西都是缺一不可、相辅相成的。在实用上,没有soft margin 和
kernel,没有可能 work,也就不可能在90年代中叶把龙头从 neural network 那里扳
过来,SVM 也不会有多少人用。但这并不损害 Vapnik 学习理论的价值,而且显然这个比soft margin 和 kernel 更重要。
I*2
146 楼
还把svm的成功归功于来到美国,太tmd 搞笑了。
按你这个讨论评估MJ的话,那他就更没啥拿得出手的贡献。
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
按你这个讨论评估MJ的话,那他就更没啥拿得出手的贡献。
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
I*2
148 楼
你应该学会怎么藏拙
个比soft margin 和 kernel 更重要。
【在 p*********g 的大作中提到】
: > 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 你这个是完全的误解,这里很多人就是喜欢只及一点、不及其余。最后一次 respond
: to you。
: 这些和 Vapnik 的东西都是缺一不可、相辅相成的。在实用上,没有soft margin 和
: kernel,没有可能 work,也就不可能在90年代中叶把龙头从 neural network 那里扳
: 过来,SVM 也不会有多少人用。但这并不损害 Vapnik 学习理论的价值,而且显然这个比soft margin 和 kernel 更重要。
个比soft margin 和 kernel 更重要。
【在 p*********g 的大作中提到】
: > 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 你这个是完全的误解,这里很多人就是喜欢只及一点、不及其余。最后一次 respond
: to you。
: 这些和 Vapnik 的东西都是缺一不可、相辅相成的。在实用上,没有soft margin 和
: kernel,没有可能 work,也就不可能在90年代中叶把龙头从 neural network 那里扳
: 过来,SVM 也不会有多少人用。但这并不损害 Vapnik 学习理论的价值,而且显然这个比soft margin 和 kernel 更重要。
p*g
149 楼
>> 按你这个讨论评估MJ的话,那他就更没啥拿得出手的贡献。
这点从现在看,MJ 显然不能跟 Vapnik 比,不过人家还年轻,而且计算技术的发展将
来如何还不一定。
如果要看 Bayes 的应用,nando 有一些。还有号称最大的 Bayes application 是微软
剑桥研究院搞的 TrueSkill,Xbox 里面用得好好的。
这点从现在看,MJ 显然不能跟 Vapnik 比,不过人家还年轻,而且计算技术的发展将
来如何还不一定。
如果要看 Bayes 的应用,nando 有一些。还有号称最大的 Bayes application 是微软
剑桥研究院搞的 TrueSkill,Xbox 里面用得好好的。
p*g
152 楼
竞猜一下,为什么这个语法错误的句子没人去纠正。呵呵,其实是故意的。
c*r
153 楼
Come on,
graphical model != Bayes
generalized linear model != frequentist
learn sme basic stat first before pouring this kind of groundless comments.
.
【在 N**D 的大作中提到】
: 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
: well, you Bayes guy can see "we can get this from this this and that that
: grphacial model, with this set of bullsh*t prior"
:
: SVM
: Guyon
: machine
graphical model != Bayes
generalized linear model != frequentist
learn sme basic stat first before pouring this kind of groundless comments.
.
【在 N**D 的大作中提到】
: 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
: well, you Bayes guy can see "we can get this from this this and that that
: grphacial model, with this set of bullsh*t prior"
:
: SVM
: Guyon
: machine
l*e
154 楼
没想到frequentist和bayesian吵到这个版上了
难得,搬个小板凳
.
【在 N**D 的大作中提到】
: 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
: well, you Bayes guy can see "we can get this from this this and that that
: grphacial model, with this set of bullsh*t prior"
:
: SVM
: Guyon
: machine
难得,搬个小板凳
.
【在 N**D 的大作中提到】
: 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
: well, you Bayes guy can see "we can get this from this this and that that
: grphacial model, with this set of bullsh*t prior"
:
: SVM
: Guyon
: machine
p*g
155 楼
呵呵,让它们去争吧,他们会说“不过是举个例子”等等。
反正俺无意非要说哪个方法好,哪个差,各有优劣。只要清楚认识到 SVM state of
the art 是很多人智慧的结晶就行了。等到计算机发展到高维积分变成小菜一蝶的时候
,Bayes自然就会更 popular。
还有,大家讨论问题语气平缓些,有话好好说。
【在 c******r 的大作中提到】
: Come on,
: graphical model != Bayes
: generalized linear model != frequentist
: learn sme basic stat first before pouring this kind of groundless comments.
:
: .
反正俺无意非要说哪个方法好,哪个差,各有优劣。只要清楚认识到 SVM state of
the art 是很多人智慧的结晶就行了。等到计算机发展到高维积分变成小菜一蝶的时候
,Bayes自然就会更 popular。
还有,大家讨论问题语气平缓些,有话好好说。
【在 c******r 的大作中提到】
: Come on,
: graphical model != Bayes
: generalized linear model != frequentist
: learn sme basic stat first before pouring this kind of groundless comments.
:
: .
t*a
160 楼
http://en.wikipedia.org/wiki/All_your_base_are_belong_to_us
【在 p*********g 的大作中提到】
: 竞猜一下,为什么这个语法错误的句子没人去纠正。呵呵,其实是故意的。
【在 p*********g 的大作中提到】
: 竞猜一下,为什么这个语法错误的句子没人去纠正。呵呵,其实是故意的。
G*7
162 楼
//hand
【在 t******a 的大作中提到】
: http://en.wikipedia.org/wiki/All_your_base_are_belong_to_us
【在 t******a 的大作中提到】
: http://en.wikipedia.org/wiki/All_your_base_are_belong_to_us
p*g
163 楼
N*D
164 楼
do you know how to read?
Come on,
graphical model != Bayes
generalized linear model != frequentist
learn sme basic stat first before pouring this kind of groundless comments.
.
【在 c******r 的大作中提到】
: Come on,
: graphical model != Bayes
: generalized linear model != frequentist
: learn sme basic stat first before pouring this kind of groundless comments.
:
: .
Come on,
graphical model != Bayes
generalized linear model != frequentist
learn sme basic stat first before pouring this kind of groundless comments.
.
【在 c******r 的大作中提到】
: Come on,
: graphical model != Bayes
: generalized linear model != frequentist
: learn sme basic stat first before pouring this kind of groundless comments.
:
: .
N*D
167 楼
我的理解是这样的
curse of dimenionality 的最初来源是density estimation, which is fundamental
problem in almost all engineering. In parametric form such as linear model,
it is believed that the number of data required is exponential of the number
of free parameters.
However, what VC dimension shows is that, the above understanding is not
correct, after taking into consideration the problem we want to solve.
For example, for classification, it is NOT true that "the fewer the number
of free parameters ", "the le
【在 q*w 的大作中提到】
: 部分同意。
: 高维积分,算法上不改进,计算机再快也没有用。
: 指数增长的算法,不是计算机快就可以解决问题的。
: 为什么说curse of dimensionality是formulation is wrong?
: 这个问题确实存在。只是谁也不知道怎么解。
: 甚至,我很悲观的认为,可能解的方法最近很难出来。
: 问问搞数学的就知道了。一个数学教授和我说,高维的优化,还是很困难。
curse of dimenionality 的最初来源是density estimation, which is fundamental
problem in almost all engineering. In parametric form such as linear model,
it is believed that the number of data required is exponential of the number
of free parameters.
However, what VC dimension shows is that, the above understanding is not
correct, after taking into consideration the problem we want to solve.
For example, for classification, it is NOT true that "the fewer the number
of free parameters ", "the le
【在 q*w 的大作中提到】
: 部分同意。
: 高维积分,算法上不改进,计算机再快也没有用。
: 指数增长的算法,不是计算机快就可以解决问题的。
: 为什么说curse of dimensionality是formulation is wrong?
: 这个问题确实存在。只是谁也不知道怎么解。
: 甚至,我很悲观的认为,可能解的方法最近很难出来。
: 问问搞数学的就知道了。一个数学教授和我说,高维的优化,还是很困难。
q*w
168 楼
你的意思是说,feature 足够好,不用那么复杂高维的分类器,对吧?
问题是,现在很多问题,找好的feature,很难。
如果做分类的说,你feature要好。
提feature的人说,你的分类器要强大。
这就成了chicken-egg问题了。
事实上,处理很多高维问题,现存的方法也还可以。
比如Linear SVM.....
可以用,但不完美。但是总比没有用的好。
这也是我这么崇拜Vapnik的原因了。
fundamental
model,
number
not
number
sin(ax)
【在 N**D 的大作中提到】
: 我的理解是这样的
: curse of dimenionality 的最初来源是density estimation, which is fundamental
: problem in almost all engineering. In parametric form such as linear model,
: it is believed that the number of data required is exponential of the number
: of free parameters.
: However, what VC dimension shows is that, the above understanding is not
: correct, after taking into consideration the problem we want to solve.
: For example, for classification, it is NOT true that "the fewer the number
: of free parameters ", "the le
问题是,现在很多问题,找好的feature,很难。
如果做分类的说,你feature要好。
提feature的人说,你的分类器要强大。
这就成了chicken-egg问题了。
事实上,处理很多高维问题,现存的方法也还可以。
比如Linear SVM.....
可以用,但不完美。但是总比没有用的好。
这也是我这么崇拜Vapnik的原因了。
fundamental
model,
number
not
number
sin(ax)
【在 N**D 的大作中提到】
: 我的理解是这样的
: curse of dimenionality 的最初来源是density estimation, which is fundamental
: problem in almost all engineering. In parametric form such as linear model,
: it is believed that the number of data required is exponential of the number
: of free parameters.
: However, what VC dimension shows is that, the above understanding is not
: correct, after taking into consideration the problem we want to solve.
: For example, for classification, it is NOT true that "the fewer the number
: of free parameters ", "the le
r*y
169 楼
NIPS=Neural Information Processing Systems?
http://books.nips.cc/nips22.html
【在 C*********e 的大作中提到】
: 。。。ICML是这几年是水化趋势明显了。NIPS扯淡文章一直就有,从来没有
: 断过,NIPS牛在出了太多的好文章,好的结果一般prefer在NIPS上发出来
m*t
170 楼
还真有人把SVM捧上了天。
在工业界,复杂的费时的算法很少用到的。
越是简单的,用的越多。
在工业界,复杂的费时的算法很少用到的。
越是简单的,用的越多。
m*t
175 楼
实践证明,理论上看起来很好的东西,实践中往往赶不上简单有效的方法。
看看前几年,我记得是2007 kdd cup优胜者用的什么方法,足以把一帮研究machine
learning新算法的人羞死。
这就是以拙胜巧,以简胜繁。
看看前几年,我记得是2007 kdd cup优胜者用的什么方法,足以把一帮研究machine
learning新算法的人羞死。
这就是以拙胜巧,以简胜繁。
m*t
192 楼
某人把Vapnik捧上了天,原来是私生子。
可怜啊,Vapnik都没承认你,你还去给人舔屁股。
可怜啊,Vapnik都没承认你,你还去给人舔屁股。
o*o
197 楼
Dempster and Rubin at Harvard, super Cow in Stat ah....any methods build on
EM will have to cite their '77 paper, as well as a '83 paper by Liu which
proves existence of local ML solution
【在 c******r 的大作中提到】
: 说到引用,这个文章很夸张
: Dempster, A.P.; Laird, N.M.; Rubin, D.B. (1977). "Maximum Likelihood from
: Incomplete Data via the EM Algorithm".
: citation > 20k
: 另外Dempster
: Covariance selection Biometrics 28, 157-175, 1972
: 提出了undirected graphical model for Gaussian distribution
: 可惜没啥人知道这个。。。
: MJ也就是把graphical model在cs中应用发扬光大,算不上什么顶级大师吧。
EM will have to cite their '77 paper, as well as a '83 paper by Liu which
proves existence of local ML solution
【在 c******r 的大作中提到】
: 说到引用,这个文章很夸张
: Dempster, A.P.; Laird, N.M.; Rubin, D.B. (1977). "Maximum Likelihood from
: Incomplete Data via the EM Algorithm".
: citation > 20k
: 另外Dempster
: Covariance selection Biometrics 28, 157-175, 1972
: 提出了undirected graphical model for Gaussian distribution
: 可惜没啥人知道这个。。。
: MJ也就是把graphical model在cs中应用发扬光大,算不上什么顶级大师吧。
b*s
204 楼
我下辈子一定要叫米高佐敦
d*e
206 楼
【 以下文字转载自 Faculty 讨论区 】
发信人: dde (DDT), 信区: Faculty
标 题: 牛人很神奇的简历啊
发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
Member, National Academy of Sciences, 2010.
Member, National Academy of Engineering, 2010.
今年NAE和NAS双料新科院士。。。
可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
那会是不是是个博士/博士后都能找到AP职位啊。。。
发信人: dde (DDT), 信区: Faculty
标 题: 牛人很神奇的简历啊
发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
Member, National Academy of Sciences, 2010.
Member, National Academy of Engineering, 2010.
今年NAE和NAS双料新科院士。。。
可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
那会是不是是个博士/博士后都能找到AP职位啊。。。
H*r
207 楼
He must have convinced senior professors of MIT that he was going to a
superstar of the field.
But it's quite easy to find a faculty position before 2000, after that ....
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
superstar of the field.
But it's quite easy to find a faculty position before 2000, after that ....
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
n*l
208 楼
这个人, 在machine learning领域, 那是超级大牛啊, top3肯定是没问题的.
P*l
209 楼
这不是迈克尔乔丹吗?
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
i*8
210 楼
这就是作为老美的优势了,
有些老美博士的时候屁都没有,然后再好学占了一个好坑找了牛学生出了一堆牛成果,
美国这个系统你也分不出是谁的贡献然后就成名了。
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
有些老美博士的时候屁都没有,然后再好学占了一个好坑找了牛学生出了一堆牛成果,
美国这个系统你也分不出是谁的贡献然后就成名了。
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
w*n
215 楼
I think he is more famous for his achievement in NBA.
d*e
220 楼
这个吗?
University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
Research advisor: Prof. Chung S. Yang
Rutgers University, M.Sc. in Computer Science (1996–1998).
Research advisor: Prof. Casimir Kulikowski
Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
Research advisor: Prof. Jun Zhao
实在是佩服啊
【在 d*****u 的大作中提到】
: Eric Xing也是折腾高手啊
: 物理本科,生物PhD
: 然后不过瘾又去念个CS的PhD
University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
Research advisor: Prof. Chung S. Yang
Rutgers University, M.Sc. in Computer Science (1996–1998).
Research advisor: Prof. Casimir Kulikowski
Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
Research advisor: Prof. Jun Zhao
实在是佩服啊
【在 d*****u 的大作中提到】
: Eric Xing也是折腾高手啊
: 物理本科,生物PhD
: 然后不过瘾又去念个CS的PhD
d*e
221 楼
一般人哪有这个毅力啊
1999).
【在 d*e 的大作中提到】
: 这个吗?
: University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
: Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
: Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
: Research advisor: Prof. Chung S. Yang
: Rutgers University, M.Sc. in Computer Science (1996–1998).
: Research advisor: Prof. Casimir Kulikowski
: Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
: Research advisor: Prof. Jun Zhao
: 实在是佩服啊
1999).
【在 d*e 的大作中提到】
: 这个吗?
: University of California, Berkeley, Ph.D. in Computer Science (1999–2004).
: Research advisors: Profs. Richard Karp, Michael Jordan and Stuart Russell
: Rutgers University, Ph.D. in Molecular Biology and Biochemistry (1994–1999).
: Research advisor: Prof. Chung S. Yang
: Rutgers University, M.Sc. in Computer Science (1996–1998).
: Research advisor: Prof. Casimir Kulikowski
: Tsinghua University, B.Sc. in Physics and Biology (dual major, 1988–1993).
: Research advisor: Prof. Jun Zhao
: 实在是佩服啊
L*d
222 楼
看来大家对统计的状况不太清楚啊
很多统计phd不需要paper就可以毕业,甚至不需要paper就可以找到faculty
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
很多统计phd不需要paper就可以毕业,甚至不需要paper就可以找到faculty
【在 d*e 的大作中提到】
: 【 以下文字转载自 Faculty 讨论区 】
: 发信人: dde (DDT), 信区: Faculty
: 标 题: 牛人很神奇的简历啊
: 发信站: BBS 未名空间站 (Fri May 14 22:11:43 2010, 美东)
: http://www.cs.berkeley.edu/~jordan/jordan-cv.pdf
: Member, National Academy of Sciences, 2010.
: Member, National Academy of Engineering, 2010.
: 今年NAE和NAS双料新科院士。。。
: 可是,他88年麻省大学做完博士后时,paper几乎是0啊,咋找到MIT AP职位的?
: 那会是不是是个博士/博士后都能找到AP职位啊。。。
a*a
228 楼
his
+ Poincare
superhero.
after
【在 b******y 的大作中提到】
: About five years ago, I noticed MJ was not a NAS/MAE member yet despite his
: tremendous impact on ML. It is not surprising to see his achievements
: finally got recognized now. For those who admire MJ's fame, you might be
: surprised that he is not an ACM Fellow yet. It is a fact that ML is not
: everything even within CS.
: To the best of my knowledge, there are only two polymaths in the modern
: science: John Von Neumann and Herbert A. Simon. It is my personal opinion
: that everyone has his own threshold
s*g
237 楼
中国人做ML,data mining,PR的多
总以为这几样就是代表AI了
我知道香港某牛校有很多做ML,DM很厉害的教授,但是在美国听到人表扬最多的还是一
个做logic的,一年只发1、2篇文章的教授
【在 r********3 的大作中提到】
: 这不就是传说中的Michael Jordan吗?他怎么只能用牛人来形容啊,他应该可以归结到
: 神人的地步。他的学生,Andraw N.g这些都超级大牛。他教出来的学生形成了一个“
: Jordan系”,把AI最牛的NIPS conference垄断了,从而导致了ICML这些的成长。
: 看过他好多Machine Learning的paper,他在AI方面的功底,早已经超越的普通人类的
: 境界。
总以为这几样就是代表AI了
我知道香港某牛校有很多做ML,DM很厉害的教授,但是在美国听到人表扬最多的还是一
个做logic的,一年只发1、2篇文章的教授
【在 r********3 的大作中提到】
: 这不就是传说中的Michael Jordan吗?他怎么只能用牛人来形容啊,他应该可以归结到
: 神人的地步。他的学生,Andraw N.g这些都超级大牛。他教出来的学生形成了一个“
: Jordan系”,把AI最牛的NIPS conference垄断了,从而导致了ICML这些的成长。
: 看过他好多Machine Learning的paper,他在AI方面的功底,早已经超越的普通人类的
: 境界。
l*w
239 楼
Jordan不光学术好,讲课也是一个非常好的老师。
N*D
243 楼
所以说你还很年轻嘛
在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
analysis 也不是spectral 的。
希望牛人们使劲在nips灌水,别到其它地方害人了。
【在 r********3 的大作中提到】
: support vector machine,我觉得只是用数学系的quadratic programming来套用在分
: 类优化问题上吧。做CS的提出这个挺不错的。但是这个作者本身就是做数学出身的啊。
: 分类模型不是他提出的,同时quadratic programming也不是他发明的。。。
: 如果这样说起来,M.J.也有他的工作啊。比如说,我看过早年他们做过的active
: learning,spectral clustering,虽然都是合作的。。。
在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
analysis 也不是spectral 的。
希望牛人们使劲在nips灌水,别到其它地方害人了。
【在 r********3 的大作中提到】
: support vector machine,我觉得只是用数学系的quadratic programming来套用在分
: 类优化问题上吧。做CS的提出这个挺不错的。但是这个作者本身就是做数学出身的啊。
: 分类模型不是他提出的,同时quadratic programming也不是他发明的。。。
: 如果这样说起来,M.J.也有他的工作啊。比如说,我看过早年他们做过的active
: learning,spectral clustering,虽然都是合作的。。。
G*7
246 楼
svm就是个glorified template matcher,
你还是多看看hinton系的东西吧。
btw 四大系
逻辑系,老jm/mm和子弟;
jordan系;
神经系,hinton, lecun;
svm系,现在基本也就是在英国、欧陆、澳洲有些影响。
作。
【在 N**D 的大作中提到】
: 所以说你还很年轻嘛
: 在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
: spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
: 类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
: 一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
: analysis 也不是spectral 的。
: 希望牛人们使劲在nips灌水,别到其它地方害人了。
你还是多看看hinton系的东西吧。
btw 四大系
逻辑系,老jm/mm和子弟;
jordan系;
神经系,hinton, lecun;
svm系,现在基本也就是在英国、欧陆、澳洲有些影响。
作。
【在 N**D 的大作中提到】
: 所以说你还很年轻嘛
: 在多看看书,多看看paper, 就知道vapnic有多牛了,就知道为啥SVM这么厉害,
: spectral clustering, 如果没记错的话,好像最后还是要用k-means吧。说白了,炒作。
: 类似的想法很早就有,只不过是这个大牛在某次nips提出来,就好象很火。这个大牛的
: 一个弟子,认为凡是和他们想法不同的就不是spectral clutsering, fourier
: analysis 也不是spectral 的。
: 希望牛人们使劲在nips灌水,别到其它地方害人了。
C*e
257 楼
看了后面好多comments。。。汗
首先,machine learning算属于CS下面,但是有自己的圈子,某种意义上above了CS的
圈子,和math, stat,neuro science等,有很多联系,而且是非常紧密的联系。圈子也
是自己建立的,比如NIPS,就是有专门的机构来组织,和IEEE,ACM都没有关系。印象
中,NIPS,ICML,AISTATS,UAI,COLT,这5个会议,都似乎和IEEE/ACM没关系。所以评上一
个ACM的fellow与否,无管紧要。
其次,ML还是相对年轻的学科,像是john lafferty,lawrence saul这样的超级大牛,
40来岁左右而已,而且JL看着也就30多多的样子。hinton老一些,他是
从AI年代就开始做了,不是ML出身。MJ学生这么多了,他自己也就50多吧,不算
很大。有些那种到到了年龄才能评的fellow,自然不会太多
评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
出路,声誉等等。综合来看,MJ绝对是超级大牛
SVM的解法可以看成是QP,但是他model里面的large margin和kernel的idea,far
above这点优化算法,太汗那个只是QP的说法了
【在 d*e 的大作中提到】
:
: ~~~~ 你是鸡丁吗?
首先,machine learning算属于CS下面,但是有自己的圈子,某种意义上above了CS的
圈子,和math, stat,neuro science等,有很多联系,而且是非常紧密的联系。圈子也
是自己建立的,比如NIPS,就是有专门的机构来组织,和IEEE,ACM都没有关系。印象
中,NIPS,ICML,AISTATS,UAI,COLT,这5个会议,都似乎和IEEE/ACM没关系。所以评上一
个ACM的fellow与否,无管紧要。
其次,ML还是相对年轻的学科,像是john lafferty,lawrence saul这样的超级大牛,
40来岁左右而已,而且JL看着也就30多多的样子。hinton老一些,他是
从AI年代就开始做了,不是ML出身。MJ学生这么多了,他自己也就50多吧,不算
很大。有些那种到到了年龄才能评的fellow,自然不会太多
评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
出路,声誉等等。综合来看,MJ绝对是超级大牛
SVM的解法可以看成是QP,但是他model里面的large margin和kernel的idea,far
above这点优化算法,太汗那个只是QP的说法了
【在 d*e 的大作中提到】
:
: ~~~~ 你是鸡丁吗?
G*7
260 楼
hinton 60+了
几年前去nips居然有一个workshop是庆祝他60生日。
最早nips几乎是他家人掌握的
【在 C*********e 的大作中提到】
: 看了后面好多comments。。。汗
: 首先,machine learning算属于CS下面,但是有自己的圈子,某种意义上above了CS的
: 圈子,和math, stat,neuro science等,有很多联系,而且是非常紧密的联系。圈子也
: 是自己建立的,比如NIPS,就是有专门的机构来组织,和IEEE,ACM都没有关系。印象
: 中,NIPS,ICML,AISTATS,UAI,COLT,这5个会议,都似乎和IEEE/ACM没关系。所以评上一
: 个ACM的fellow与否,无管紧要。
: 其次,ML还是相对年轻的学科,像是john lafferty,lawrence saul这样的超级大牛,
: 40来岁左右而已,而且JL看着也就30多多的样子。hinton老一些,他是
: 从AI年代就开始做了,不是ML出身。MJ学生这么多了,他自己也就50多吧,不算
: 很大。有些那种到到了年龄才能评的fellow,自然不会太多
几年前去nips居然有一个workshop是庆祝他60生日。
最早nips几乎是他家人掌握的
【在 C*********e 的大作中提到】
: 看了后面好多comments。。。汗
: 首先,machine learning算属于CS下面,但是有自己的圈子,某种意义上above了CS的
: 圈子,和math, stat,neuro science等,有很多联系,而且是非常紧密的联系。圈子也
: 是自己建立的,比如NIPS,就是有专门的机构来组织,和IEEE,ACM都没有关系。印象
: 中,NIPS,ICML,AISTATS,UAI,COLT,这5个会议,都似乎和IEEE/ACM没关系。所以评上一
: 个ACM的fellow与否,无管紧要。
: 其次,ML还是相对年轻的学科,像是john lafferty,lawrence saul这样的超级大牛,
: 40来岁左右而已,而且JL看着也就30多多的样子。hinton老一些,他是
: 从AI年代就开始做了,不是ML出身。MJ学生这么多了,他自己也就50多吧,不算
: 很大。有些那种到到了年龄才能评的fellow,自然不会太多
s*y
262 楼
ML的派系,
周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
位。
SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
效果也很好。
PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
年就见过,不知道大家说的是那一本。
【在 G*****7 的大作中提到】
: 正确的解说是
: 他的graphical models书写了那么多年还没写完。
周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
位。
SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
效果也很好。
PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
年就见过,不知道大家说的是那一本。
【在 G*****7 的大作中提到】
: 正确的解说是
: 他的graphical models书写了那么多年还没写完。
w*g
263 楼
我外行,觉得现在真正能够实用的程序就libsvm一个。别的paper里写的那些美好的算
法怎么就没一个拿来能用的软件呢?
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
法怎么就没一个拿来能用的软件呢?
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
G*7
265 楼
周志华不如香港的Xu Lei
Bayesian Ying-Yang System and Harmony Learning Theory
采撷阴阳,济天下之和谐大成
xu出于jordan而胜于jordan
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
Bayesian Ying-Yang System and Harmony Learning Theory
采撷阴阳,济天下之和谐大成
xu出于jordan而胜于jordan
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
G*7
266 楼
和bishop合写的。早就有draft电子版了,只在几个学校做内部教材。
【在 s***y 的大作中提到】
: ML的派系,
: 周志华的集成学习,天下第一,未来的图灵,据说一个诺贝尔奖的还抄他,可见他的地
: 位。
: SVM,万能药,对许多问题效果都很好,是ML生手的最爱。
: BOOSTING。从ADABOOST到ADDITIVE MODEL,理论越来越深,在统计界有较大影响,实用
: 效果也很好。
: PROBABILISTIC GRAPHICAL MODEL。PEARL开山,JORDAN发扬广大,HINTON也可以算,现
: 在是一大派,现在这一派也比较成熟了。JORDAN的GRAPHICAL MODEL书,电子版我08
: 年就见过,不知道大家说的是那一本。
b*g
270 楼
Hinton is no doubt better than MJ.
s*y
274 楼
我觉得说ISING开山也行,ISING的工作是获得诺贝尔奖的,是统计物理里的经典。
JORDAN为什么在EECS吃香,因为GRAPHICAL MODEL统一了MRF,HMM,等等。而MRF和HMM
在信号和图像处理上EECS的人用的很多,所以接受JORDAN的东西没困难。总体说,
JORDAN还是偏计算,真正理论的东西不多,统计的人重理论,重模型,对他的东西不感
兴趣。
GRAPHICAL MODEL现在在BIOINFORMATICS上已经站稳了,经过KOLLER,FRIEDMAN,ERIC
XING 这些人的推动,在NATURE,SCIENCE上的文章也用了这种模型,甚至PEER靠这个拿
了NIH的R01,我因为这是GRAPHICAL MODEL最成功的应用。
这个领域我比较偏爱,有一次问了ANDREW YAO,他一把年纪了还做percolation theory
,
【在 f*******r 的大作中提到】
:
: 统计中哪些结果被vapnik忽略了?
: 他和Chervonenkis的理论1971年就基本奠基了。
JORDAN为什么在EECS吃香,因为GRAPHICAL MODEL统一了MRF,HMM,等等。而MRF和HMM
在信号和图像处理上EECS的人用的很多,所以接受JORDAN的东西没困难。总体说,
JORDAN还是偏计算,真正理论的东西不多,统计的人重理论,重模型,对他的东西不感
兴趣。
GRAPHICAL MODEL现在在BIOINFORMATICS上已经站稳了,经过KOLLER,FRIEDMAN,ERIC
XING 这些人的推动,在NATURE,SCIENCE上的文章也用了这种模型,甚至PEER靠这个拿
了NIH的R01,我因为这是GRAPHICAL MODEL最成功的应用。
这个领域我比较偏爱,有一次问了ANDREW YAO,他一把年纪了还做percolation theory
,
【在 f*******r 的大作中提到】
:
: 统计中哪些结果被vapnik忽略了?
: 他和Chervonenkis的理论1971年就基本奠基了。
P*P
277 楼
连ising都扯上了....
接着可以上CN Yang了.哈哈
HMM
ERIC
theory
【在 s***y 的大作中提到】
: 我觉得说ISING开山也行,ISING的工作是获得诺贝尔奖的,是统计物理里的经典。
: JORDAN为什么在EECS吃香,因为GRAPHICAL MODEL统一了MRF,HMM,等等。而MRF和HMM
: 在信号和图像处理上EECS的人用的很多,所以接受JORDAN的东西没困难。总体说,
: JORDAN还是偏计算,真正理论的东西不多,统计的人重理论,重模型,对他的东西不感
: 兴趣。
: GRAPHICAL MODEL现在在BIOINFORMATICS上已经站稳了,经过KOLLER,FRIEDMAN,ERIC
: XING 这些人的推动,在NATURE,SCIENCE上的文章也用了这种模型,甚至PEER靠这个拿
: 了NIH的R01,我因为这是GRAPHICAL MODEL最成功的应用。
: 这个领域我比较偏爱,有一次问了ANDREW YAO,他一把年纪了还做percolation theory
: ,
接着可以上CN Yang了.哈哈
HMM
ERIC
theory
【在 s***y 的大作中提到】
: 我觉得说ISING开山也行,ISING的工作是获得诺贝尔奖的,是统计物理里的经典。
: JORDAN为什么在EECS吃香,因为GRAPHICAL MODEL统一了MRF,HMM,等等。而MRF和HMM
: 在信号和图像处理上EECS的人用的很多,所以接受JORDAN的东西没困难。总体说,
: JORDAN还是偏计算,真正理论的东西不多,统计的人重理论,重模型,对他的东西不感
: 兴趣。
: GRAPHICAL MODEL现在在BIOINFORMATICS上已经站稳了,经过KOLLER,FRIEDMAN,ERIC
: XING 这些人的推动,在NATURE,SCIENCE上的文章也用了这种模型,甚至PEER靠这个拿
: 了NIH的R01,我因为这是GRAPHICAL MODEL最成功的应用。
: 这个领域我比较偏爱,有一次问了ANDREW YAO,他一把年纪了还做percolation theory
: ,
P*P
278 楼
这里讨论vapnic跟MJ的, 先把他两的书都看了再说把.
只同意这句话
评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
出路,声誉等等。
只同意这句话
评价一个学者牛否,PhD期间的工作不重要,更关键看他带学生之后的工作,他学生的
出路,声誉等等。
j*n
279 楼
我也觉得看一个人牛不牛要看他自己的工作,不是看他学生的出路.
【在 I*****2 的大作中提到】
: 不看他们的书也是可以评价的,否则学术大拿们就跟江湖骗子一个级别了,专门蒙外行
: 人。
: vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
: 历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
: 因斯坦还牛逼。
: 这种级别人物,看看citation就知道他们的影响力了。
: vapnic,唯一作者,
: The nature of statistical learning theory, citation 超过1万7, 2000年出版的
: Statistical learning theory citation 超过1万3, 1998年出版的
:
【在 I*****2 的大作中提到】
: 不看他们的书也是可以评价的,否则学术大拿们就跟江湖骗子一个级别了,专门蒙外行
: 人。
: vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
: 历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
: 因斯坦还牛逼。
: 这种级别人物,看看citation就知道他们的影响力了。
: vapnic,唯一作者,
: The nature of statistical learning theory, citation 超过1万7, 2000年出版的
: Statistical learning theory citation 超过1万3, 1998年出版的
:
p*g
282 楼
对于 Vapnik 的书,cite 它的人中有几个真正读过超过10页,几个扫过一下目录,几
个瞄过一眼封面,几个根本连 ebook 都没下载过。
个瞄过一眼封面,几个根本连 ebook 都没下载过。
p*g
284 楼
很多人其实就是想 cite 一个概念,懒得去查,直接就引 Vapnik 了事
p*o
285 楼
原来是 M. J. 的 CV 啊, 这个是牛人啊.
p*g
292 楼
引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
创的工作。
MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
创的工作。
MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
N*D
293 楼
michael who?
其实说巨人吧,Gene Golub, 就是写Matrix Computation, SVD, 很牛地。所有的
machine learning, data mining, 最后都要用。
【在 p*********g 的大作中提到】
: 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
: 。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
: 其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
: 创的工作。
: MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
: 其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
其实说巨人吧,Gene Golub, 就是写Matrix Computation, SVD, 很牛地。所有的
machine learning, data mining, 最后都要用。
【在 p*********g 的大作中提到】
: 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
: 。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
: 其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
: 创的工作。
: MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
: 其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
p*g
294 楼
Kearns.
Gene Golub,呵呵,还是小众些吧,否则牛顿都要算了,人家发明了微积分。
Gene Golub,呵呵,还是小众些吧,否则牛顿都要算了,人家发明了微积分。
d*e
296 楼
呵呵,你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
SVM在各个领域都有成功的应用,并且已经被大范围推广,MJ有哪个工作可以比肩?
【在 p*********g 的大作中提到】
: 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
: 。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
: 其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
: 创的工作。
: MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
: 其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
SVM在各个领域都有成功的应用,并且已经被大范围推广,MJ有哪个工作可以比肩?
【在 p*********g 的大作中提到】
: 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
: 。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
: 其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
: 创的工作。
: MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
: 其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。
p*g
297 楼
>> 你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
有点 upset。当然不怪他,毕竟当时在苏联。
感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
有点 upset。当然不怪他,毕竟当时在苏联。
感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
B*x
298 楼
http://blog.sina.com.cn/s/blog_661c16d00100kc51.html
机器学习大家谈(转贴)(2010-03-17 21:42:19)转载
标签:杂谈 分类:学术科研
闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,
并且仅局
限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以
不对的地方大
家仅当一笑。
Machine Learning 大家(1):M. I. Jordan
在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐
镇一方,
在附近的两所名校(加stanford)中都可以说无出其右者,stanford的Daphne Koller
虽然也
声名遐迩,但是和Jordan比还是有一段距离。
Jordan身兼stat和cs两个系的教授,从他身上可以看出Stat和ML的融合。
Jordan 最先专注于mixtures of experts,并迅速奠定了自己的地位,我们哈尔滨
工业大
学的校友徐雷跟他做博后期间,也在这个方向上沾光不少。Jordan和他的弟子在很多方
面作出了开
创性的成果,如spectral clustering, Graphical model和nonparametric
Bayesian。现在后两者在ML领域是非常炙手可热的两个方向,可以说很大程度上是
Jordan的lab
一手推动的。
更难能可贵的是, Jordan不仅自己武艺高强,并且揽钱有法,教育有方,手下门
徒众多且很多
人成了大器,隐然成为江湖大帮派。他的弟子中有10多人任教授,个人认 为他现在的
弟子中最出色
的是stanford的Andrew Ng,不过由于资历原因,现在还是assistant professor,不过
成为
大教授指日可待;另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
mit任教而David Blei在cmu做博后,数次获得NIPS最佳论文奖,把SVM的最大间隔方法和
Markov network的structure结构结合起来,赫赫有名。还有一个博后是来自于toronto
的Yee
Whye Teh,非常不错,有幸跟他打过几次交道,人非常nice。另外还有一个博后居然在
做生物信息
方面的东西,看来jordan在这方面也捞了钱。这方面他有一个中国学生Eric P. Xing(
清华大学
校友),现在在cmu做assistant professor。
总的说来,我觉得 Jordan现在做的主要还是graphical model和Bayesian
learning,
他去年写了一本关于graphical model的书,今年由mit press出版,应该是这个领域里
程碑式
的著作。3月份曾经有人答应给我一本打印本看看,因为Jordan不让他传播电子版,但
后来好像没放
在心上(可见美国人也不是很守信的),人不熟我也不好意思问着要,可以说是一大遗
憾. 另外发现
一个有趣的现象就是Jordan对hierarchical情有独钟,相当多的文章都是关于
hierarchical
的,所以能 hierarchical大家赶快hierarchical,否则就让他给抢了。
用我朋友话说看jordan牛不牛,看他主页下面的Past students and postdocs就知道
了。
Machine Learning大家(2):D. Koller
D. Koller是1999年美国青年科学家总统奖(PECASE)得主,IJCAI 2001 Computers
and Thought Award(IJCAI计算机与思维奖,这是国际人工智能界35岁以下青年学者的
最高奖)
得主,2004 World Technology Award得主。
最先知道D koller是因为她得了一个大奖,2001年IJCAI计算机与思维奖。Koller
因她在概
率推理的理论和实践、机器学习、计算博弈论等领域的重要贡献,成为继Terry
Winograd、
David Marr、Tom Mitchell、Rodney Brooks等人之后的第18位获奖者。说起这个奖挺
有意
思的,IJCAI终身成就奖(IJCAI Award for Research Excellence),是国际人工智能
界的
最高荣誉; IJCAI计算机与思维奖是国际人工智能界35岁以下青年学者的最高荣誉。早
期AI研究将
推理置于至高无上的地位; 但是1991年牛人Rodney Brooks对推理全面否定,指出机器
只能独立
学习而得到了IJCAI计算机与思维奖; 但是koller却因提出了Probabilistic
Relational
Models 而证明机器可以推理论知而又得到了这个奖,可见世事无绝对,科学有轮回。
D koller的Probabilistic Relational Models在nips和icml等各种牛会上活跃了相
当长的一段时间,并且至少在实验室里证明了它在信息搜索上的价值,这也导致了她的
很多学生进入
了 google。虽然进入google可能没有在牛校当faculty名声响亮,但要知道google的很
多员工
现在可都是百万富翁,在全美大肆买房买车的主。
Koller的研究主要都集中在probabilistic graphical model,如Bayesian网络,
但这
玩意我没有接触过,我只看过几篇他们的markov network的文章,但看了也就看了,一
点想法都没
有,这滩水有点深,不是我这种非科班出身的能趟的,并且感觉难以应用到我现在这个
领域中。
Koller 才从教10年,所以学生还没有涌现出太多的牛人,这也是她不能跟Jordan
比拟的地
方,并且由于在stanford的关系,很多学生直接去硅谷赚大钱去了,而没有在学术界开
江湖大帮派
的影响,但在stanford这可能太难以办到,因为金钱的诱惑实在太大了。不过Koller的
一个学生我
非常崇拜,叫 Ben Taskar,就是我在(1)中所提到的Jordan的博后,是好几个牛会的
最佳论文
奖,他把SVM的最大间隔方法和Markov network结合起来,可以说是对structure data
处理的
一种标准工具,也把最大间隔方法带入了一个新的热潮,近几年很多牛会都有这样的
workshop。 我
最开始上Ben Taskar的在stanford的个人网页时,正赶上他刚毕业,他的顶上有这么一
句话:流
言变成了现实,我终于毕业了!可见Koller是很变态的,把自己的学生关得这么郁闷,
这恐怕也是
大多数女faculty的通病吧,并且估计还非常的push!
Machine learning 大家(3):J. D. Lafferty
大家都知道NIPS和ICML向来都是由大大小小的山头所割据,而John Lafferty无疑
是里面相
当高的一座高山,这一点可从他的publication list里的NIPS和ICML数目得到明证。虽
然江湖
传说计算机重镇CMU现在在走向衰落,但这无碍Lafferty拥有越来越大的影响力,翻开
AI兵器谱排
名第一的journal of machine learning research的很多文章,我们都能发现author或者
editor中赫然有Lafferty的名字。
Lafferty给人留下的最大的印象似乎是他2001年的conditional random fields,
这篇
文章后来被疯狂引用,广泛地应用在语言和图像处理,并随之出现了很多的变体,如
Kumar的
discriminative random fields等。虽然大家都知道discriminative learning好,但很
久没有找到好的discriminative方法去处理这些具有丰富的contextual inxxxxation的数
据,直到Lafferty的出现。
而现在Lafferty做的东西好像很杂,semi-supervised learning, kernel
learning,graphical models甚至manifold learning都有涉及,可能就是像武侠里一
样只
要学会了九阳神功,那么其它的武功就可以一窥而知其精髓了。这里面我最喜欢的是
semi-
supervised learning,因为随着要处理的数据越来越多,进行全部label过于困难,而
完全
unsupervised的方法又让人不太放心,在这种情况下 semi-supervised learning就成
了最
好的。这没有一个比较清晰的认识,不过这也给了江湖后辈成名的可乘之机。到现在为
止,我觉得
cmu的semi- supervised是做得最好的,以前是KAMAL NIGAM做了开创性的工作,而现在
Lafferty和他的弟子作出了很多总结和创新。
Lafferty 的弟子好像不是很多,并且好像都不是很有名。不过今年毕业了一个中
国人,
Xiaojin Zhu(上海交通大学校友),就是做semi-supervised的那个人,现在在
wisconsin-
madison做assistant professor。他做了迄今为止最全面的Semi-supervised learning
literature survey,大家可以从他的个人主页中找到。这人看着很憨厚,估计是很好
的陶瓷对
象。另外我在(1)中所说的Jordan的牛弟子D Blei今年也投奔Lafferty做博后,就足见
Lafferty的牛了。
Lafferty做NLP是很好的,著名的Link Grammar Parser还有很多别的应用。其中
language model在IR中应用,这方面他的另一个中国学生ChengXiang Zhai(南京大学校
友,
2004年美国青年科学家总统奖(PECASE)得主),现在在uiuc做assistant professor。
Machine learning 大家(4):Peter L. Bartlett
鄙人浅薄之见,Jordan比起同在berkeley的Peter Bartlett还是要差一个层次。
Bartlett主要的成就都是在learning theory方面,也就是ML最本质的东西。他的几篇
开创性理
论分析的论文,当然还有他的书Neural Network Learning: Theoretical Foundations。
UC Berkeley的统计系在强手如林的北美高校中一直是top3,这就足以证明其肯定
是群星荟
萃,而其中,Peter L. Bartlett是相当亮的一颗星。关于他的研究,我想可以从他的
一本书里得
到答案:Neural Network Learning: Theoretical Foundations。也就是说,他主要做的
是Theoretical Foundations。基础理论虽然没有一些直接可面向应用的算法那样引人
注目,但
对科学的发展实际上起着更大的作用。试想vapnik要不是在VC维的理论上辛苦了这么多
年,怎么可
能有SVM的问世。不过阳春白雪固是高雅,但大多数人只能听懂下里巴人,所以
Bartlett的文章大
多只能在做理论的那个圈子里产生影响,而不能为大多数人所广泛引用。
Bartlett在最近两年做了大量的Large margin classifiers方面的工作,如其
convergence rate和generalization bound等。并且很多是与jordan合作,足见两人的工
作有很多相通之处。不过我发现Bartlett的大多数文章都是自己为第一作者,估计是在
教育上存在
问题吧,没带出特别牛的学生出来。
Bartlett的个人主页的talk里有很多值得一看的slides,如Large Margin
Classifiers: Convexity and Classification;Large Margin Methods for
Structured Classification: Exponentiated Gradient Algorithms。大家有兴趣的
话可以去下来看看。
Machine learning 大家(5): Michael Collins
Michael Collins http://people.csail.mit.edu/mcollins/
自然语言处理(NLP)江湖的第一高人。出身Upenn,靠一身叫做Collins Parser的武
功在江
湖上展露头脚。当然除了资质好之外,其出身也帮了不少忙。早年一个叫做Mitchell P
. Marcus
的师傅传授了他一本葵花宝典-Penn Treebank。从此,Collins整日沉迷于此,终于练
成盖世神
功。
学成之后,Collins告别师傅开始闯荡江湖,投入了一个叫AT&T Labs Research的
帮会,并
有幸结识了Robert Schapire、Yoram Singer等众多高手。大家不要小瞧这个叫AT&T
Labs
Research的帮会,如果谁没有听过它的大名总该知道它的同父异母的兄弟Bell Labs吧。
言归正传,话说Collins在这里度过了3年快乐的时光。其间也奠定了其NLP江湖老
大的地位。
并且练就了Discriminative Reranking, Convolution Kernels,Discriminative
Training Methods for Hidden Markov Models等多种绝技。然而,世事难料,怎奈由
于帮
会经营不善,这帮大牛又不会为帮会拼杀,终于被一脚踢开,大家如鸟兽散了。
Schapire去了
Princeton, Singer 也回老家以色列了。Collins来到了MIT,成为了武林第一大帮的
六袋长
老,并教授一门叫做的Machine Learning Approaches for
NLPhttp://www.ai.mit.edu/courses/6.891-nlp/ 的功夫。虽然这一地位与其功力极不
相符,但是这并没有打消Collins的积极性,通过其刻苦打拼,终于得到了一个叫Sloan
Research Fellow的头衔,并于今年7月,光荣的升任7袋Associate Professor。
在其下山短短7年时间内,Collins共获得了4次世界级武道大会冠军(EMNLP2002,
2004,
UAI2004, 2005)。相信年轻的他,总有一天会一统丐帮,甚至整个江湖。
看过Collins和别人合作的一篇文章,用conditional random fields 做object
recogntion。还这么年轻,admire to death!
Machine learning 大家(6): Dan Roth
Dan Roth http://l2r.cs.uiuc.edu/~danr/
统计NLP领域的众多学者后,我得出了一个惊人的结论,就是叫Daniel的牛人特别
多: 大到MT
领域成名已久的Prof. Dan Melamed,小到Stanford刚刚毕业的Dan Klein,
中间又有Dan jurafsky这种牛魔王,甚至Michael Collins的师弟Dan Bikel (IBM
Research),ISI的Dan Marcu,获得过无数次TREC QA评比冠军的Prof. Dan Moldovan
(UTexas Dallas),UC Berkeley毕业的Dan Gildea (U Rochester)。但是,在众多的
Dan
中,我最崇拜的还是UIUC的Associate Professor,其Cognitive Computation Group的
头头Dan Roth。
这位老兄也是极其年轻的,Harvard博士毕业整十年,带领其团队撑起了UIUC
Machine
Learning以及NLP领域的一片灿烂天空。其领导开发的SNoW工具可谓是一把绝世好剑,
基本达到
了"又想马儿跑,又想马儿不吃草"的境界,在不损失分类精度的条件下,学习和预测速
度空前。什
么?你不知道SNoW?它和白雪公主有什么关系?看来我也得学学"超女"的粉丝们,来一
个扫盲了:
SNoW是Sparse Network of Winnows的简称,其中实现了Winnow算法,但是记住Sparse
Network才是其重点,正是因为有了这块玄铁,SNoW之剑才会如此锋利。
近年来Roth也赶时髦,把触角伸向了Structured Data学习领域,但与其他人在学习
的时候就
试图加入结构化信息(典型的如CRF)不同,Roth主张在预测的最后阶段加入约束进行推
理,这可以使
的学习效率极大的提高,同时在某些应用上,还取得了更好的结果。还有就是什么
Kernel学习,估
计他也是学生太多,安排不下了,所以只好开疆扩土。
Harvard出身的Roth,理论功底也极其深厚,好多涉及统计学习理论的工作就不是
我这种学工
科的人关心的了。
机器学习大家谈(转贴)(2010-03-17 21:42:19)转载
标签:杂谈 分类:学术科研
闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,
并且仅局
限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以
不对的地方大
家仅当一笑。
Machine Learning 大家(1):M. I. Jordan
在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐
镇一方,
在附近的两所名校(加stanford)中都可以说无出其右者,stanford的Daphne Koller
虽然也
声名遐迩,但是和Jordan比还是有一段距离。
Jordan身兼stat和cs两个系的教授,从他身上可以看出Stat和ML的融合。
Jordan 最先专注于mixtures of experts,并迅速奠定了自己的地位,我们哈尔滨
工业大
学的校友徐雷跟他做博后期间,也在这个方向上沾光不少。Jordan和他的弟子在很多方
面作出了开
创性的成果,如spectral clustering, Graphical model和nonparametric
Bayesian。现在后两者在ML领域是非常炙手可热的两个方向,可以说很大程度上是
Jordan的lab
一手推动的。
更难能可贵的是, Jordan不仅自己武艺高强,并且揽钱有法,教育有方,手下门
徒众多且很多
人成了大器,隐然成为江湖大帮派。他的弟子中有10多人任教授,个人认 为他现在的
弟子中最出色
的是stanford的Andrew Ng,不过由于资历原因,现在还是assistant professor,不过
成为
大教授指日可待;另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
mit任教而David Blei在cmu做博后,数次获得NIPS最佳论文奖,把SVM的最大间隔方法和
Markov network的structure结构结合起来,赫赫有名。还有一个博后是来自于toronto
的Yee
Whye Teh,非常不错,有幸跟他打过几次交道,人非常nice。另外还有一个博后居然在
做生物信息
方面的东西,看来jordan在这方面也捞了钱。这方面他有一个中国学生Eric P. Xing(
清华大学
校友),现在在cmu做assistant professor。
总的说来,我觉得 Jordan现在做的主要还是graphical model和Bayesian
learning,
他去年写了一本关于graphical model的书,今年由mit press出版,应该是这个领域里
程碑式
的著作。3月份曾经有人答应给我一本打印本看看,因为Jordan不让他传播电子版,但
后来好像没放
在心上(可见美国人也不是很守信的),人不熟我也不好意思问着要,可以说是一大遗
憾. 另外发现
一个有趣的现象就是Jordan对hierarchical情有独钟,相当多的文章都是关于
hierarchical
的,所以能 hierarchical大家赶快hierarchical,否则就让他给抢了。
用我朋友话说看jordan牛不牛,看他主页下面的Past students and postdocs就知道
了。
Machine Learning大家(2):D. Koller
D. Koller是1999年美国青年科学家总统奖(PECASE)得主,IJCAI 2001 Computers
and Thought Award(IJCAI计算机与思维奖,这是国际人工智能界35岁以下青年学者的
最高奖)
得主,2004 World Technology Award得主。
最先知道D koller是因为她得了一个大奖,2001年IJCAI计算机与思维奖。Koller
因她在概
率推理的理论和实践、机器学习、计算博弈论等领域的重要贡献,成为继Terry
Winograd、
David Marr、Tom Mitchell、Rodney Brooks等人之后的第18位获奖者。说起这个奖挺
有意
思的,IJCAI终身成就奖(IJCAI Award for Research Excellence),是国际人工智能
界的
最高荣誉; IJCAI计算机与思维奖是国际人工智能界35岁以下青年学者的最高荣誉。早
期AI研究将
推理置于至高无上的地位; 但是1991年牛人Rodney Brooks对推理全面否定,指出机器
只能独立
学习而得到了IJCAI计算机与思维奖; 但是koller却因提出了Probabilistic
Relational
Models 而证明机器可以推理论知而又得到了这个奖,可见世事无绝对,科学有轮回。
D koller的Probabilistic Relational Models在nips和icml等各种牛会上活跃了相
当长的一段时间,并且至少在实验室里证明了它在信息搜索上的价值,这也导致了她的
很多学生进入
了 google。虽然进入google可能没有在牛校当faculty名声响亮,但要知道google的很
多员工
现在可都是百万富翁,在全美大肆买房买车的主。
Koller的研究主要都集中在probabilistic graphical model,如Bayesian网络,
但这
玩意我没有接触过,我只看过几篇他们的markov network的文章,但看了也就看了,一
点想法都没
有,这滩水有点深,不是我这种非科班出身的能趟的,并且感觉难以应用到我现在这个
领域中。
Koller 才从教10年,所以学生还没有涌现出太多的牛人,这也是她不能跟Jordan
比拟的地
方,并且由于在stanford的关系,很多学生直接去硅谷赚大钱去了,而没有在学术界开
江湖大帮派
的影响,但在stanford这可能太难以办到,因为金钱的诱惑实在太大了。不过Koller的
一个学生我
非常崇拜,叫 Ben Taskar,就是我在(1)中所提到的Jordan的博后,是好几个牛会的
最佳论文
奖,他把SVM的最大间隔方法和Markov network结合起来,可以说是对structure data
处理的
一种标准工具,也把最大间隔方法带入了一个新的热潮,近几年很多牛会都有这样的
workshop。 我
最开始上Ben Taskar的在stanford的个人网页时,正赶上他刚毕业,他的顶上有这么一
句话:流
言变成了现实,我终于毕业了!可见Koller是很变态的,把自己的学生关得这么郁闷,
这恐怕也是
大多数女faculty的通病吧,并且估计还非常的push!
Machine learning 大家(3):J. D. Lafferty
大家都知道NIPS和ICML向来都是由大大小小的山头所割据,而John Lafferty无疑
是里面相
当高的一座高山,这一点可从他的publication list里的NIPS和ICML数目得到明证。虽
然江湖
传说计算机重镇CMU现在在走向衰落,但这无碍Lafferty拥有越来越大的影响力,翻开
AI兵器谱排
名第一的journal of machine learning research的很多文章,我们都能发现author或者
editor中赫然有Lafferty的名字。
Lafferty给人留下的最大的印象似乎是他2001年的conditional random fields,
这篇
文章后来被疯狂引用,广泛地应用在语言和图像处理,并随之出现了很多的变体,如
Kumar的
discriminative random fields等。虽然大家都知道discriminative learning好,但很
久没有找到好的discriminative方法去处理这些具有丰富的contextual inxxxxation的数
据,直到Lafferty的出现。
而现在Lafferty做的东西好像很杂,semi-supervised learning, kernel
learning,graphical models甚至manifold learning都有涉及,可能就是像武侠里一
样只
要学会了九阳神功,那么其它的武功就可以一窥而知其精髓了。这里面我最喜欢的是
semi-
supervised learning,因为随着要处理的数据越来越多,进行全部label过于困难,而
完全
unsupervised的方法又让人不太放心,在这种情况下 semi-supervised learning就成
了最
好的。这没有一个比较清晰的认识,不过这也给了江湖后辈成名的可乘之机。到现在为
止,我觉得
cmu的semi- supervised是做得最好的,以前是KAMAL NIGAM做了开创性的工作,而现在
Lafferty和他的弟子作出了很多总结和创新。
Lafferty 的弟子好像不是很多,并且好像都不是很有名。不过今年毕业了一个中
国人,
Xiaojin Zhu(上海交通大学校友),就是做semi-supervised的那个人,现在在
wisconsin-
madison做assistant professor。他做了迄今为止最全面的Semi-supervised learning
literature survey,大家可以从他的个人主页中找到。这人看着很憨厚,估计是很好
的陶瓷对
象。另外我在(1)中所说的Jordan的牛弟子D Blei今年也投奔Lafferty做博后,就足见
Lafferty的牛了。
Lafferty做NLP是很好的,著名的Link Grammar Parser还有很多别的应用。其中
language model在IR中应用,这方面他的另一个中国学生ChengXiang Zhai(南京大学校
友,
2004年美国青年科学家总统奖(PECASE)得主),现在在uiuc做assistant professor。
Machine learning 大家(4):Peter L. Bartlett
鄙人浅薄之见,Jordan比起同在berkeley的Peter Bartlett还是要差一个层次。
Bartlett主要的成就都是在learning theory方面,也就是ML最本质的东西。他的几篇
开创性理
论分析的论文,当然还有他的书Neural Network Learning: Theoretical Foundations。
UC Berkeley的统计系在强手如林的北美高校中一直是top3,这就足以证明其肯定
是群星荟
萃,而其中,Peter L. Bartlett是相当亮的一颗星。关于他的研究,我想可以从他的
一本书里得
到答案:Neural Network Learning: Theoretical Foundations。也就是说,他主要做的
是Theoretical Foundations。基础理论虽然没有一些直接可面向应用的算法那样引人
注目,但
对科学的发展实际上起着更大的作用。试想vapnik要不是在VC维的理论上辛苦了这么多
年,怎么可
能有SVM的问世。不过阳春白雪固是高雅,但大多数人只能听懂下里巴人,所以
Bartlett的文章大
多只能在做理论的那个圈子里产生影响,而不能为大多数人所广泛引用。
Bartlett在最近两年做了大量的Large margin classifiers方面的工作,如其
convergence rate和generalization bound等。并且很多是与jordan合作,足见两人的工
作有很多相通之处。不过我发现Bartlett的大多数文章都是自己为第一作者,估计是在
教育上存在
问题吧,没带出特别牛的学生出来。
Bartlett的个人主页的talk里有很多值得一看的slides,如Large Margin
Classifiers: Convexity and Classification;Large Margin Methods for
Structured Classification: Exponentiated Gradient Algorithms。大家有兴趣的
话可以去下来看看。
Machine learning 大家(5): Michael Collins
Michael Collins http://people.csail.mit.edu/mcollins/
自然语言处理(NLP)江湖的第一高人。出身Upenn,靠一身叫做Collins Parser的武
功在江
湖上展露头脚。当然除了资质好之外,其出身也帮了不少忙。早年一个叫做Mitchell P
. Marcus
的师傅传授了他一本葵花宝典-Penn Treebank。从此,Collins整日沉迷于此,终于练
成盖世神
功。
学成之后,Collins告别师傅开始闯荡江湖,投入了一个叫AT&T Labs Research的
帮会,并
有幸结识了Robert Schapire、Yoram Singer等众多高手。大家不要小瞧这个叫AT&T
Labs
Research的帮会,如果谁没有听过它的大名总该知道它的同父异母的兄弟Bell Labs吧。
言归正传,话说Collins在这里度过了3年快乐的时光。其间也奠定了其NLP江湖老
大的地位。
并且练就了Discriminative Reranking, Convolution Kernels,Discriminative
Training Methods for Hidden Markov Models等多种绝技。然而,世事难料,怎奈由
于帮
会经营不善,这帮大牛又不会为帮会拼杀,终于被一脚踢开,大家如鸟兽散了。
Schapire去了
Princeton, Singer 也回老家以色列了。Collins来到了MIT,成为了武林第一大帮的
六袋长
老,并教授一门叫做的Machine Learning Approaches for
NLPhttp://www.ai.mit.edu/courses/6.891-nlp/ 的功夫。虽然这一地位与其功力极不
相符,但是这并没有打消Collins的积极性,通过其刻苦打拼,终于得到了一个叫Sloan
Research Fellow的头衔,并于今年7月,光荣的升任7袋Associate Professor。
在其下山短短7年时间内,Collins共获得了4次世界级武道大会冠军(EMNLP2002,
2004,
UAI2004, 2005)。相信年轻的他,总有一天会一统丐帮,甚至整个江湖。
看过Collins和别人合作的一篇文章,用conditional random fields 做object
recogntion。还这么年轻,admire to death!
Machine learning 大家(6): Dan Roth
Dan Roth http://l2r.cs.uiuc.edu/~danr/
统计NLP领域的众多学者后,我得出了一个惊人的结论,就是叫Daniel的牛人特别
多: 大到MT
领域成名已久的Prof. Dan Melamed,小到Stanford刚刚毕业的Dan Klein,
中间又有Dan jurafsky这种牛魔王,甚至Michael Collins的师弟Dan Bikel (IBM
Research),ISI的Dan Marcu,获得过无数次TREC QA评比冠军的Prof. Dan Moldovan
(UTexas Dallas),UC Berkeley毕业的Dan Gildea (U Rochester)。但是,在众多的
Dan
中,我最崇拜的还是UIUC的Associate Professor,其Cognitive Computation Group的
头头Dan Roth。
这位老兄也是极其年轻的,Harvard博士毕业整十年,带领其团队撑起了UIUC
Machine
Learning以及NLP领域的一片灿烂天空。其领导开发的SNoW工具可谓是一把绝世好剑,
基本达到
了"又想马儿跑,又想马儿不吃草"的境界,在不损失分类精度的条件下,学习和预测速
度空前。什
么?你不知道SNoW?它和白雪公主有什么关系?看来我也得学学"超女"的粉丝们,来一
个扫盲了:
SNoW是Sparse Network of Winnows的简称,其中实现了Winnow算法,但是记住Sparse
Network才是其重点,正是因为有了这块玄铁,SNoW之剑才会如此锋利。
近年来Roth也赶时髦,把触角伸向了Structured Data学习领域,但与其他人在学习
的时候就
试图加入结构化信息(典型的如CRF)不同,Roth主张在预测的最后阶段加入约束进行推
理,这可以使
的学习效率极大的提高,同时在某些应用上,还取得了更好的结果。还有就是什么
Kernel学习,估
计他也是学生太多,安排不下了,所以只好开疆扩土。
Harvard出身的Roth,理论功底也极其深厚,好多涉及统计学习理论的工作就不是
我这种学工
科的人关心的了。
c*r
299 楼
说到引用,这个文章很夸张
Dempster, A.P.; Laird, N.M.; Rubin, D.B. (1977). "Maximum Likelihood from
Incomplete Data via the EM Algorithm".
citation > 20k
另外Dempster
Covariance selection Biometrics 28, 157-175, 1972
提出了undirected graphical model for Gaussian distribution
可惜没啥人知道这个。。。
MJ也就是把graphical model在cs中应用发扬光大,算不上什么顶级大师吧。
【在 I*****2 的大作中提到】
: 不看他们的书也是可以评价的,否则学术大拿们就跟江湖骗子一个级别了,专门蒙外行
: 人。
: vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
: 历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
: 因斯坦还牛逼。
: 这种级别人物,看看citation就知道他们的影响力了。
: vapnic,唯一作者,
: The nature of statistical learning theory, citation 超过1万7, 2000年出版的
: Statistical learning theory citation 超过1万3, 1998年出版的
:
Dempster, A.P.; Laird, N.M.; Rubin, D.B. (1977). "Maximum Likelihood from
Incomplete Data via the EM Algorithm".
citation > 20k
另外Dempster
Covariance selection Biometrics 28, 157-175, 1972
提出了undirected graphical model for Gaussian distribution
可惜没啥人知道这个。。。
MJ也就是把graphical model在cs中应用发扬光大,算不上什么顶级大师吧。
【在 I*****2 的大作中提到】
: 不看他们的书也是可以评价的,否则学术大拿们就跟江湖骗子一个级别了,专门蒙外行
: 人。
: vapnic不怎么带学生,你这个衡量标准是用来评估学霸的。
: 历史上的学术大牛都是自己做研究不是靠拿学生当stepstone的,按你这个标准MJ比爱
: 因斯坦还牛逼。
: 这种级别人物,看看citation就知道他们的影响力了。
: vapnic,唯一作者,
: The nature of statistical learning theory, citation 超过1万7, 2000年出版的
: Statistical learning theory citation 超过1万3, 1998年出版的
:
i*8
300 楼
就目前而言,还真看不出来MJ有什么那得出手的东西20年后人还能记得住。
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,就br />
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
: 呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
: 如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
: graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
: 其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
: 有点 upset。当然不怪他,毕竟当时在苏联。
: 感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,就br />
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
: 呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
: 如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
: graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
: 其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
: 有点 upset。当然不怪他,毕竟当时在苏联。
: 感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
p*g
302 楼
>> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
mit任教而David Blei在cmu做博后,
>> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
构结合起来,赫赫有名。
Taskar? Thochantaridis/Altun?
mit任教而David Blei在cmu做博后,
>> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
构结合起来,赫赫有名。
Taskar? Thochantaridis/Altun?
G*7
303 楼
chinese restaurant process
【在 i*********8 的大作中提到】
: 就目前而言,还真看不出来MJ有什么那得出手的东西20年后人还能记得住。
:
: Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
: 搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
: develop着发,就像大多数人一样,就br />
: Vapnik 比,毕竟年龄相差20岁了。
: 联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 i*********8 的大作中提到】
: 就目前而言,还真看不出来MJ有什么那得出手的东西20年后人还能记得住。
:
: Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
: 搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
: develop着发,就像大多数人一样,就br />
: Vapnik 比,毕竟年龄相差20岁了。
: 联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
N*D
305 楼
摆脱别从国内转这种脑残文章
【在 B****x 的大作中提到】
: http://blog.sina.com.cn/s/blog_661c16d00100kc51.html
: 机器学习大家谈(转贴)(2010-03-17 21:42:19)转载
: 标签:杂谈 分类:学术科研
: 闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,
: 并且仅局
: 限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以
: 不对的地方大
: 家仅当一笑。
: Machine Learning 大家(1):M. I. Jordan
: 在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐
【在 B****x 的大作中提到】
: http://blog.sina.com.cn/s/blog_661c16d00100kc51.html
: 机器学习大家谈(转贴)(2010-03-17 21:42:19)转载
: 标签:杂谈 分类:学术科研
: 闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,
: 并且仅局
: 限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以
: 不对的地方大
: 家仅当一笑。
: Machine Learning 大家(1):M. I. Jordan
: 在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐
N*D
306 楼
the essense of svm is "margin", which is a regulazier term
most other methods , first is penalty term, then regularizer term
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,就br />
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
: mit任教而David Blei在cmu做博后,
: >> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
: 构结合起来,赫赫有名。
: Taskar? Thochantaridis/Altun?
most other methods , first is penalty term, then regularizer term
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,就br />
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
: mit任教而David Blei在cmu做博后,
: >> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
: 构结合起来,赫赫有名。
: Taskar? Thochantaridis/Altun?
N*D
308 楼
这个个搞graphical model的说起svm, 别说"notthing but ...", "can be obtained
from this .... prob model..." etc
有本事提出个更好的
SVM很运气,根本没有对应的noise model
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,就br />
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
: mit任教而David Blei在cmu做博后,
: >> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
: 构结合起来,赫赫有名。
: Taskar? Thochantaridis/Altun?
from this .... prob model..." etc
有本事提出个更好的
SVM很运气,根本没有对应的noise model
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,就br />
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/
【在 p*********g 的大作中提到】
: >> 另外Tommi Jaakkola和David Blei也非常厉害,其中Tommi Jaakkola在
: mit任教而David Blei在cmu做博后,
: >> 数次获得NIPS最佳论文奖,把SVM的最大间隔方法和Markov network的structure结
: 构结合起来,赫赫有名。
: Taskar? Thochantaridis/Altun?
p*g
310 楼
kernel 用在 SVM 也不是 Vapnik 的idea。
margin 这个东东其实统计、规划里早就有了。
当然话说回来,graphical model 里的很多东西统计里也早就有了,machine learning
的人把它发扬光大。
不讨论了。
margin 这个东东其实统计、规划里早就有了。
当然话说回来,graphical model 里的很多东西统计里也早就有了,machine learning
的人把它发扬光大。
不讨论了。
p*g
321 楼
本来不想再讨论了,有几点看来还是讲讲明白。
Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
在 AT&T 的同事。
Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
, Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
Vapnik 一人。当然这点其实并不重要,东西好就行了。
一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
learning 的东西都没有什么实用意义。在我们这个年代,frequentist 的方法自然会
盛行,因为我们有了_一定的_计算能力。随着计算技术的发展,Bayesian 的东西会有
更大的发展空间,因为现在Bayesian主要的困难是计算上的(比如integral),而就理
论而言,Bayesian 基本上优于 frequentist。
统计中被 Vapnik 忽略的东西其实就是 Bayes 的理论。Vapnik 觉得这些东西不够好,
于是自己发展了一套新的理论(比如 VC,以及和 empirical process 结合在一起的分
析),而且确实更有效,应用也更广。这些都 ground breaking,在90年代初,COLT
的人把他的东西奉若神明,as _the_ learning theory。90年代中开始,COLT 慢慢
地 diversify。谁有兴趣可以把它的东西 Bayes 化,有人已经做了不少,比如
Graepel, Shaw-Taylor, Seeger, Bartlett 等等。
现在_大部分_的学生自然不必再去仔细读 Vapnik 的书了,一些新的 bound (比如
Rademacher) 也已经广为流传,虽然它确实是一大瑰宝。既不必去 fan 任何人,也不
要看不起这看不起那,follow your heart and be objective,将来的事都难预料。
Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
在 AT&T 的同事。
Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
, Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
Vapnik 一人。当然这点其实并不重要,东西好就行了。
一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
learning 的东西都没有什么实用意义。在我们这个年代,frequentist 的方法自然会
盛行,因为我们有了_一定的_计算能力。随着计算技术的发展,Bayesian 的东西会有
更大的发展空间,因为现在Bayesian主要的困难是计算上的(比如integral),而就理
论而言,Bayesian 基本上优于 frequentist。
统计中被 Vapnik 忽略的东西其实就是 Bayes 的理论。Vapnik 觉得这些东西不够好,
于是自己发展了一套新的理论(比如 VC,以及和 empirical process 结合在一起的分
析),而且确实更有效,应用也更广。这些都 ground breaking,在90年代初,COLT
的人把他的东西奉若神明,as _the_ learning theory。90年代中开始,COLT 慢慢
地 diversify。谁有兴趣可以把它的东西 Bayes 化,有人已经做了不少,比如
Graepel, Shaw-Taylor, Seeger, Bartlett 等等。
现在_大部分_的学生自然不必再去仔细读 Vapnik 的书了,一些新的 bound (比如
Rademacher) 也已经广为流传,虽然它确实是一大瑰宝。既不必去 fan 任何人,也不
要看不起这看不起那,follow your heart and be objective,将来的事都难预料。
N*D
322 楼
还Bayesian
现在计算机那么厉害,有没有看看最大可解多大的问题? what is prior? why choose
one prior over another???? well, I know hyper prior?
当然,graphical model最好的地方是可以无限制灌水, Chinese resturant, India
buffeet, Mexico grill, you name it
再说,知道啥时ground breaking?
那些结合bayes 的bound, TTI的几个人做的,很牵强。最重要的,没有导致一个新的算
法,比如SVM.
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
现在计算机那么厉害,有没有看看最大可解多大的问题? what is prior? why choose
one prior over another???? well, I know hyper prior?
当然,graphical model最好的地方是可以无限制灌水, Chinese resturant, India
buffeet, Mexico grill, you name it
再说,知道啥时ground breaking?
那些结合bayes 的bound, TTI的几个人做的,很牵强。最重要的,没有导致一个新的算
法,比如SVM.
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
N*D
324 楼
这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
well, you Bayes guy can see "we can get this from this this and that that
grphacial model, with this set of bullsh*t prior"
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
well, you Bayes guy can see "we can get this from this this and that that
grphacial model, with this set of bullsh*t prior"
SVM
Guyon
machine
【在 p*********g 的大作中提到】
: 本来不想再讨论了,有几点看来还是讲讲明白。
: Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
: 单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
: margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
: 在 AT&T 的同事。
: Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
: 和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
: , Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
: Vapnik 一人。当然这点其实并不重要,东西好就行了。
: 一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
p*g
325 楼
> 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
你这个是完全的误解,这里很多人就是喜欢只及一点、不及其余。最后一次 respond
to you。
这些和 Vapnik 的东西都是缺一不可、相辅相成的。在实用上,没有soft margin 和
kernel,没有可能 work,也就不可能在90年代中叶把龙头从 neural network 那里扳
过来,SVM 也不会有多少人用。但这并不损害 Vapnik 学习理论的价值,而且显然这个比soft margin 和 kernel 更重要。
你这个是完全的误解,这里很多人就是喜欢只及一点、不及其余。最后一次 respond
to you。
这些和 Vapnik 的东西都是缺一不可、相辅相成的。在实用上,没有soft margin 和
kernel,没有可能 work,也就不可能在90年代中叶把龙头从 neural network 那里扳
过来,SVM 也不会有多少人用。但这并不损害 Vapnik 学习理论的价值,而且显然这个比soft margin 和 kernel 更重要。
p*g
326 楼
>> 按你这个讨论评估MJ的话,那他就更没啥拿得出手的贡献。
这点从现在看,MJ 显然不能跟 Vapnik 比,不过人家还年轻,而且计算技术的发展将
来如何还不一定。
如果要看 Bayes 的应用,nando 有一些。还有号称最大的 Bayes application 是微软
剑桥研究院搞的 TrueSkill,Xbox 里面用得好好的。
这点从现在看,MJ 显然不能跟 Vapnik 比,不过人家还年轻,而且计算技术的发展将
来如何还不一定。
如果要看 Bayes 的应用,nando 有一些。还有号称最大的 Bayes application 是微软
剑桥研究院搞的 TrueSkill,Xbox 里面用得好好的。
p*g
328 楼
竞猜一下,为什么这个语法错误的句子没人去纠正。呵呵,其实是故意的。
c*r
329 楼
Come on,
graphical model != Bayes
generalized linear model != frequentist
learn sme basic stat first before pouring this kind of groundless comments.
.
【在 N**D 的大作中提到】
: 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
: well, you Bayes guy can see "we can get this from this this and that that
: grphacial model, with this set of bullsh*t prior"
:
: SVM
: Guyon
: machine
graphical model != Bayes
generalized linear model != frequentist
learn sme basic stat first before pouring this kind of groundless comments.
.
【在 N**D 的大作中提到】
: 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
: well, you Bayes guy can see "we can get this from this this and that that
: grphacial model, with this set of bullsh*t prior"
:
: SVM
: Guyon
: machine
l*e
330 楼
没想到frequentist和bayesian吵到这个版上了
难得,搬个小板凳
.
【在 N**D 的大作中提到】
: 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
: well, you Bayes guy can see "we can get this from this this and that that
: grphacial model, with this set of bullsh*t prior"
:
: SVM
: Guyon
: machine
难得,搬个小板凳
.
【在 N**D 的大作中提到】
: 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
: 再说这个frequentist, 实际中,用的很多,效果很好, generalized linear model.
: well, you Bayes guy can see "we can get this from this this and that that
: grphacial model, with this set of bullsh*t prior"
:
: SVM
: Guyon
: machine
p*g
331 楼
呵呵,让它们去争吧,他们会说“不过是举个例子”等等。
反正俺无意非要说哪个方法好,哪个差,各有优劣。只要清楚认识到 SVM state of
the art 是很多人智慧的结晶就行了。等到计算机发展到高维积分变成小菜一蝶的时候
,Bayes自然就会更 popular。
还有,大家讨论问题语气平缓些,有话好好说。
【在 c******r 的大作中提到】
: Come on,
: graphical model != Bayes
: generalized linear model != frequentist
: learn sme basic stat first before pouring this kind of groundless comments.
:
: .
反正俺无意非要说哪个方法好,哪个差,各有优劣。只要清楚认识到 SVM state of
the art 是很多人智慧的结晶就行了。等到计算机发展到高维积分变成小菜一蝶的时候
,Bayes自然就会更 popular。
还有,大家讨论问题语气平缓些,有话好好说。
【在 c******r 的大作中提到】
: Come on,
: graphical model != Bayes
: generalized linear model != frequentist
: learn sme basic stat first before pouring this kind of groundless comments.
:
: .
t*a
336 楼
http://en.wikipedia.org/wiki/All_your_base_are_belong_to_us
【在 p*********g 的大作中提到】
: 竞猜一下,为什么这个语法错误的句子没人去纠正。呵呵,其实是故意的。
【在 p*********g 的大作中提到】
: 竞猜一下,为什么这个语法错误的句子没人去纠正。呵呵,其实是故意的。
G*7
338 楼
//hand
【在 t******a 的大作中提到】
: http://en.wikipedia.org/wiki/All_your_base_are_belong_to_us
【在 t******a 的大作中提到】
: http://en.wikipedia.org/wiki/All_your_base_are_belong_to_us
N*D
340 楼
do you know how to read?
Come on,
graphical model != Bayes
generalized linear model != frequentist
learn sme basic stat first before pouring this kind of groundless comments.
.
【在 c******r 的大作中提到】
: Come on,
: graphical model != Bayes
: generalized linear model != frequentist
: learn sme basic stat first before pouring this kind of groundless comments.
:
: .
Come on,
graphical model != Bayes
generalized linear model != frequentist
learn sme basic stat first before pouring this kind of groundless comments.
.
【在 c******r 的大作中提到】
: Come on,
: graphical model != Bayes
: generalized linear model != frequentist
: learn sme basic stat first before pouring this kind of groundless comments.
:
: .
N*D
343 楼
我的理解是这样的
curse of dimenionality 的最初来源是density estimation, which is fundamental
problem in almost all engineering. In parametric form such as linear model,
it is believed that the number of data required is exponential of the number
of free parameters.
However, what VC dimension shows is that, the above understanding is not
correct, after taking into consideration the problem we want to solve.
For example, for classification, it is NOT true that "the fewer the number
of free parameters ", "the less complex problem it can tackle. Think sin(ax)
for classification in one dimension.
This shows that the curse of dimensionality is not a correctly formulated
problem. The reason is, there is no need.
Same for high-dimension integration. I believe that, with proper problem
formulation, high-dimenion ingegration in not needed. In other words, Bayes
average is not needed.
部分同意。
高维积分,算法上不改进,计算机再快也没有用。
指数增长的算法,不是计算机快就可以解决问题的。
为什么说curse of dimensionality是formulation is wrong?
这个问题确实存在。只是谁也不知道怎么解。
甚至,我很悲观的认为,可能解的方法最近很难出来。
问问搞数学的就知道了。一个数学教授和我说,高维的优化,还是很困难。
【在 q*w 的大作中提到】
: 部分同意。
: 高维积分,算法上不改进,计算机再快也没有用。
: 指数增长的算法,不是计算机快就可以解决问题的。
: 为什么说curse of dimensionality是formulation is wrong?
: 这个问题确实存在。只是谁也不知道怎么解。
: 甚至,我很悲观的认为,可能解的方法最近很难出来。
: 问问搞数学的就知道了。一个数学教授和我说,高维的优化,还是很困难。
curse of dimenionality 的最初来源是density estimation, which is fundamental
problem in almost all engineering. In parametric form such as linear model,
it is believed that the number of data required is exponential of the number
of free parameters.
However, what VC dimension shows is that, the above understanding is not
correct, after taking into consideration the problem we want to solve.
For example, for classification, it is NOT true that "the fewer the number
of free parameters ", "the less complex problem it can tackle. Think sin(ax)
for classification in one dimension.
This shows that the curse of dimensionality is not a correctly formulated
problem. The reason is, there is no need.
Same for high-dimension integration. I believe that, with proper problem
formulation, high-dimenion ingegration in not needed. In other words, Bayes
average is not needed.
部分同意。
高维积分,算法上不改进,计算机再快也没有用。
指数增长的算法,不是计算机快就可以解决问题的。
为什么说curse of dimensionality是formulation is wrong?
这个问题确实存在。只是谁也不知道怎么解。
甚至,我很悲观的认为,可能解的方法最近很难出来。
问问搞数学的就知道了。一个数学教授和我说,高维的优化,还是很困难。
【在 q*w 的大作中提到】
: 部分同意。
: 高维积分,算法上不改进,计算机再快也没有用。
: 指数增长的算法,不是计算机快就可以解决问题的。
: 为什么说curse of dimensionality是formulation is wrong?
: 这个问题确实存在。只是谁也不知道怎么解。
: 甚至,我很悲观的认为,可能解的方法最近很难出来。
: 问问搞数学的就知道了。一个数学教授和我说,高维的优化,还是很困难。
q*w
344 楼
你的意思是说,feature 足够好,不用那么复杂高维的分类器,对吧?
问题是,现在很多问题,找好的feature,很难。
如果做分类的说,你feature要好。
提feature的人说,你的分类器要强大。
这就成了chicken-egg问题了。
事实上,处理很多高维问题,现存的方法也还可以。
比如Linear SVM.....
可以用,但不完美。但是总比没有用的好。
这也是我这么崇拜Vapnik的原因了。
fundamental
model,
number
not
number
sin(ax)
【在 N**D 的大作中提到】
: 我的理解是这样的
: curse of dimenionality 的最初来源是density estimation, which is fundamental
: problem in almost all engineering. In parametric form such as linear model,
: it is believed that the number of data required is exponential of the number
: of free parameters.
: However, what VC dimension shows is that, the above understanding is not
: correct, after taking into consideration the problem we want to solve.
: For example, for classification, it is NOT true that "the fewer the number
: of free parameters ", "the less complex problem it can tackle. Think sin(ax)
: for classification in one dimension.
问题是,现在很多问题,找好的feature,很难。
如果做分类的说,你feature要好。
提feature的人说,你的分类器要强大。
这就成了chicken-egg问题了。
事实上,处理很多高维问题,现存的方法也还可以。
比如Linear SVM.....
可以用,但不完美。但是总比没有用的好。
这也是我这么崇拜Vapnik的原因了。
fundamental
model,
number
not
number
sin(ax)
【在 N**D 的大作中提到】
: 我的理解是这样的
: curse of dimenionality 的最初来源是density estimation, which is fundamental
: problem in almost all engineering. In parametric form such as linear model,
: it is believed that the number of data required is exponential of the number
: of free parameters.
: However, what VC dimension shows is that, the above understanding is not
: correct, after taking into consideration the problem we want to solve.
: For example, for classification, it is NOT true that "the fewer the number
: of free parameters ", "the less complex problem it can tackle. Think sin(ax)
: for classification in one dimension.
r*y
345 楼
NIPS=Neural Information Processing Systems?
http://books.nips.cc/nips22.html
【在 C*********e 的大作中提到】
: 。。。ICML是这几年是水化趋势明显了。NIPS扯淡文章一直就有,从来没有
: 断过,NIPS牛在出了太多的好文章,好的结果一般prefer在NIPS上发出来
m*t
346 楼
还真有人把SVM捧上了天。
在工业界,复杂的费时的算法很少用到的。
越是简单的,用的越多。
在工业界,复杂的费时的算法很少用到的。
越是简单的,用的越多。
m*t
351 楼
实践证明,理论上看起来很好的东西,实践中往往赶不上简单有效的方法。
看看前几年,我记得是2007 kdd cup优胜者用的什么方法,足以把一帮研究machine
learning新算法的人羞死。
这就是以拙胜巧,以简胜繁。
看看前几年,我记得是2007 kdd cup优胜者用的什么方法,足以把一帮研究machine
learning新算法的人羞死。
这就是以拙胜巧,以简胜繁。
m*t
368 楼
某人把Vapnik捧上了天,原来是私生子。
可怜啊,Vapnik都没承认你,你还去给人舔屁股。
可怜啊,Vapnik都没承认你,你还去给人舔屁股。
o*o
371 楼
Dempster and Rubin at Harvard, super Cow in Stat ah....any methods build on
EM will have to cite their '77 paper, as well as a '83 paper by Liu which
proves existence of local ML solution
【在 c******r 的大作中提到】
: 说到引用,这个文章很夸张
: Dempster, A.P.; Laird, N.M.; Rubin, D.B. (1977). "Maximum Likelihood from
: Incomplete Data via the EM Algorithm".
: citation > 20k
: 另外Dempster
: Covariance selection Biometrics 28, 157-175, 1972
: 提出了undirected graphical model for Gaussian distribution
: 可惜没啥人知道这个。。。
: MJ也就是把graphical model在cs中应用发扬光大,算不上什么顶级大师吧。
EM will have to cite their '77 paper, as well as a '83 paper by Liu which
proves existence of local ML solution
【在 c******r 的大作中提到】
: 说到引用,这个文章很夸张
: Dempster, A.P.; Laird, N.M.; Rubin, D.B. (1977). "Maximum Likelihood from
: Incomplete Data via the EM Algorithm".
: citation > 20k
: 另外Dempster
: Covariance selection Biometrics 28, 157-175, 1972
: 提出了undirected graphical model for Gaussian distribution
: 可惜没啥人知道这个。。。
: MJ也就是把graphical model在cs中应用发扬光大,算不上什么顶级大师吧。
b*s
378 楼
我下辈子一定要叫米高佐敦
b*x
379 楼
After only 5 years, so many things have changed, totally
相关阅读
问一个为了考CPA补学分的问题。Volunteer 经验可以算CPA hour吗?关于这个秋季找工作在德州注册CPA的同学请进一下考cpa的加这个俱乐部把一个研究职位 Research contract-to-permanent positionTake off for interviewBEC看不下去啊在淘宝上买的2012版的BECKER,刚刚发现2013 ADUIT 改革了, 这下怎么办呢, 还要全部重新买吗?其他的3门已经考过了在美国辞职的后果严重吗?弱弱的问一下关于总在帖子里看到人们说的JE。。。适合学生的零花钱,英文小网站翻译项目。 (转载)请问,H1b期间工作被雷,需要多久之内找新的工作?放弃铁饭碗捧瓷饭碗了!求鼓励求祝福求指教!谁有Becker final review 的答案?买了正版2013 becker cpa review software的朋友进来下我该怎么规划我的会计生涯?请大家出主意来点励志的,让同学们在黑暗中看到希望急问一道TAX题湾区REG私人辅导==外州可考虑网上授课