avatar
I*y
1
左面的一颗后槽牙因为小时候有蛀牙一直没有补,现在大部分已经掉了,今天去看了牙
医,他们建议我拔掉,几个月后再给我植牙,说可以用牙粉,也可以用我自己的骨头。
这到底是怎么回事?就和种树一样的植牙吗?
avatar
y*6
2
哪里可以查到信息关于美国对一些进口商品的要求和标准?
如果早点知道这些信息,就可以自己估计成本,手续麻烦不麻烦等等。。。
有谁知道吗?
avatar
j*e
3
一定回打!
avatar
l*e
4
http://www.esat.kuleuven.be/sista/members/suykens.html
比利时发考题,是那个小有名气的LS-SVM toolbox的项目领头人,做过SVM的人可能听
说过(貌似不如台湾国立大牛林智仁的libsvm用的多)。看publication蛮多的,但是
鄙人眼拙看不出质量,望有高人能指点一二,谢过。
avatar
h*n
5
【 以下文字转载自 JobHunting 讨论区 】
发信人: hanuman (神猴), 信区: JobHunting
标 题: C语言里面的register变量能否进行取地址操作?
发信站: BBS 未名空间站 (Sat Nov 20 18:19:03 2010, 美东)
一直不是很清楚,C语言里面的register变量有它的内存地址吗?
比如说: register int a=3; 那么&a代表什么意思呢?
avatar
s*0
6
这个公司听过吗?
具体如何?有内部的人吗?
avatar
l*l
8
http://www.cbp.gov/xp/cgov/trade/legal/
or those with US Customer Broker License.

【在 y*****6 的大作中提到】
: 哪里可以查到信息关于美国对一些进口商品的要求和标准?
: 如果早点知道这些信息,就可以自己估计成本,手续麻烦不麻烦等等。。。
: 有谁知道吗?

avatar
N*f
9
Here's 20 for you. :-)
avatar
t*s
10
这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
(比如regularized networks,regularized kernel fda)。ml主流对他这种
鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
不在主流ml community里,本人学术水平一般。

【在 l***e 的大作中提到】
: http://www.esat.kuleuven.be/sista/members/suykens.html
: 比利时发考题,是那个小有名气的LS-SVM toolbox的项目领头人,做过SVM的人可能听
: 说过(貌似不如台湾国立大牛林智仁的libsvm用的多)。看publication蛮多的,但是
: 鄙人眼拙看不出质量,望有高人能指点一二,谢过。

avatar
X*r
11
在C99里是不允许取register变量的地址的,见
6.5.3.2 Address and indirection operators
Constraints
1 The operand of the unary & operator shall be
either a function designator, the result of a []
or unary * operator, or an lvalue that designates
an object that is not a bit-field and is not
declared with the register storage-class specifier.

【在 h*****n 的大作中提到】
: 【 以下文字转载自 JobHunting 讨论区 】
: 发信人: hanuman (神猴), 信区: JobHunting
: 标 题: C语言里面的register变量能否进行取地址操作?
: 发信站: BBS 未名空间站 (Sat Nov 20 18:19:03 2010, 美东)
: 一直不是很清楚,C语言里面的register变量有它的内存地址吗?
: 比如说: register int a=3; 那么&a代表什么意思呢?

avatar
G*u
12
亚特兰大的一个非寿险咨询公司
好像以前有个那公司的analyst来我们这面试过
听我老板说那哥们还抱怨那公司 细节不明
我看过他们网站 每个做精算的背景都列出来 包括analysts 不像会给办h1b
avatar
y*6
13
Thanks a lot, lostsoul (daydreamer)!
avatar
a*i
14
10!
avatar
l*e
15
多谢高人现身指点。
不过主流ml community如今是什么呢?比如transfer learning其实也就是learning by
analogy的升级版吧。个人感觉除了vapnik的统计学习理论,近十几年来没有什么重大
进展。如今的主流多少也都有点鸡毛当令箭的意味。

)。

【在 t***s 的大作中提到】
: 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
: 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
: svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
: 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
: 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
: (比如regularized networks,regularized kernel fda)。ml主流对他这种
: 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
: 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
: 不在主流ml community里,本人学术水平一般。

avatar
s*0
16
抱怨公司?
说明公司有问题啊
avatar
y*i
17
10!
avatar
s*g
18
主流就是最上层人互相吹捧的,他们认可的就是主流,其实剥开了都没啥
但是我们还是需要拼命挤进去,因为他们掌握资源
avatar
s*t
19
说明这个人有问题,就算现在的公司真的不好也不能在面试的时候抱怨

【在 s*******0 的大作中提到】
: 抱怨公司?
: 说明公司有问题啊

avatar
y*9
20
不是很喜欢这种办公室装
avatar
L*k
21
不是再出一个vapnik的学习理论才叫进展,那种建立基础性质的工作本来就是很多年才
有一个

by

【在 l***e 的大作中提到】
: 多谢高人现身指点。
: 不过主流ml community如今是什么呢?比如transfer learning其实也就是learning by
: analogy的升级版吧。个人感觉除了vapnik的统计学习理论,近十几年来没有什么重大
: 进展。如今的主流多少也都有点鸡毛当令箭的意味。
:
: )。

avatar
s*0
22
agree
avatar
L*k
23
lssvm稍微发几篇paper其实还成,搞这么多年有点太无语了。。。。

)。

【在 t***s 的大作中提到】
: 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
: 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
: svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
: 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
: 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
: (比如regularized networks,regularized kernel fda)。ml主流对他这种
: 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
: 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
: 不在主流ml community里,本人学术水平一般。

avatar
s*2
24
小公司还是有可能办H1B的,哪怕他们之前没办过。
这家就不清楚了。

【在 G*****u 的大作中提到】
: 亚特兰大的一个非寿险咨询公司
: 好像以前有个那公司的analyst来我们这面试过
: 听我老板说那哥们还抱怨那公司 细节不明
: 我看过他们网站 每个做精算的背景都列出来 包括analysts 不像会给办h1b

avatar
f*x
25

)。
在哪篇文章里讽刺?找了半天没找到。

【在 t***s 的大作中提到】
: 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
: 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
: svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
: 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
: 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
: (比如regularized networks,regularized kernel fda)。ml主流对他这种
: 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
: 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
: 不在主流ml community里,本人学术水平一般。

avatar
t*s
26
Everything Old is New Again: A Fresh Look at Historical
Approaches in Machine Learning
Ryan Rifkin, PhD Thesis, 2002
Page 100:
Hans Suykens has also rederived the RLSC algorithm, under the
name of Least Squares Support Vector Machines. He has been
extremely prolific on the topic, publishing literally dozens of
papers; the papers most relevant to the topic discussed in this
thesis are [109,110,107,108,105,44,106]. However, these papers
do not seem to advance either the theory or practice of RLSC.
Like the work of Fung and Mangasarian, Suykens derives RLSC as
a modification of Support Vector Machine, rather than directly
as an implementation of Tikhonov regularization with a particular
loss function, and seems somewhat ignorant of previous work in
approximation theory.
是不是讽刺见仁见智,我是觉得已经夹枪带棒了。。

【在 f*****x 的大作中提到】
:
: )。
: 在哪篇文章里讽刺?找了半天没找到。

avatar
t*s
27
还专门为lssvm写了本书。还有那个toolbox,光documentation就
几百页,实际上去掉pre- post- processing,visualization,
真正的核心matlab代码不超过5行。用"\"解两个线形系统,over。
难为他搞出那么大动静来。

【在 L*****k 的大作中提到】
: lssvm稍微发几篇paper其实还成,搞这么多年有点太无语了。。。。
:
: )。

avatar
t*s
28
我不是什么高人,初窥门径而已。说Suykens水平一般其实都轮不到我,
不过他跟ml主流community关系不密切是确定的。ml的重大进展,这个我
更是没资格评论。。

by

【在 l***e 的大作中提到】
: 多谢高人现身指点。
: 不过主流ml community如今是什么呢?比如transfer learning其实也就是learning by
: analogy的升级版吧。个人感觉除了vapnik的统计学习理论,近十几年来没有什么重大
: 进展。如今的主流多少也都有点鸡毛当令箭的意味。
:
: )。

avatar
r*3
29
赞!欧洲很多这样的人。只在自己的圈子狂灌水,混不进主流。

)。

【在 t***s 的大作中提到】
: 这个人做的东西我比较了解。首先lssvm不是svm,两者的用的loss functioin
: 不一样(square loss vs. hinge loss),所以lssvm toolbox跟libsvm或者
: svmlight不同,它不是一个svm solver。效果上,lssvm和svm不相上下,但用
: 的人并不多。这个人2000年左右搞出lssvm,发了非常多的paper,还写了一本书,
: 但其实贡献并不大,因为lssvm不过是已经有的某些machine的新的提法而已
: (比如regularized networks,regularized kernel fda)。ml主流对他这种
: 鸡毛当令箭的做法不太看得上,甚至有人在文章里直接讽刺挖苦(e.g. ryan rifkin)。
: 他的publication里,icml 0, nips 1, jmlr 3,但都不是第一作者。结论:
: 不在主流ml community里,本人学术水平一般。

avatar
r*3
30
Learning领域是这样的。
其他传统领域还是比较实在,不是靠吹捧就行的。要拿出实际的系统和产品出来,跑跑
Benchmark,是龙是虫一下子就比较出来了。

【在 s******g 的大作中提到】
: 主流就是最上层人互相吹捧的,他们认可的就是主流,其实剥开了都没啥
: 但是我们还是需要拼命挤进去,因为他们掌握资源

avatar
f*x
31
多谢这段摘录,见识了比较专业的讽刺写法。

【在 t***s 的大作中提到】
: Everything Old is New Again: A Fresh Look at Historical
: Approaches in Machine Learning
: Ryan Rifkin, PhD Thesis, 2002
: Page 100:
: Hans Suykens has also rederived the RLSC algorithm, under the
: name of Least Squares Support Vector Machines. He has been
: extremely prolific on the topic, publishing literally dozens of
: papers; the papers most relevant to the topic discussed in this
: thesis are [109,110,107,108,105,44,106]. However, these papers
: do not seem to advance either the theory or practice of RLSC.

avatar
d*e
32
写进Thesis真是有够mean

【在 t***s 的大作中提到】
: Everything Old is New Again: A Fresh Look at Historical
: Approaches in Machine Learning
: Ryan Rifkin, PhD Thesis, 2002
: Page 100:
: Hans Suykens has also rederived the RLSC algorithm, under the
: name of Least Squares Support Vector Machines. He has been
: extremely prolific on the topic, publishing literally dozens of
: papers; the papers most relevant to the topic discussed in this
: thesis are [109,110,107,108,105,44,106]. However, these papers
: do not seem to advance either the theory or practice of RLSC.

avatar
r*3
33
从这个PhD Thesis的title就可以看出这个人很“牛”。

【在 d******e 的大作中提到】
: 写进Thesis真是有够mean
avatar
v*d
34
也不见得是,大部分领域都有不少人自己划个圈灌水的

【在 r********3 的大作中提到】
: Learning领域是这样的。
: 其他传统领域还是比较实在,不是靠吹捧就行的。要拿出实际的系统和产品出来,跑跑
: Benchmark,是龙是虫一下子就比较出来了。

avatar
r*3
35
Learning的这种领域是这种现象最严重的。

【在 v******d 的大作中提到】
: 也不见得是,大部分领域都有不少人自己划个圈灌水的
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。