Redian新闻
>
PhD找程序员工作的时候publication有人看吗?
avatar
PhD找程序员工作的时候publication有人看吗?# CS - 计算机科学
y*2
1
父母在2008年呆了5个半月,在2009年里呆3个半月。
今年保税的时后没有把他们算dependents,因为他们在2008年里没有呆够半年。我想在
下年的保税的时后把他们算dependents。
请问:我该什么时候给他们申请退税号?今年的1040已经交了,没有把 W7 表付上。我
可以现在单独寄 W7 表给IRS吗?还是等下年保税的时后再附上 W7 表呢?
谢谢
avatar
i*s
2
【 以下文字转载自 Animals 讨论区 】
发信人: iForpus (coelestis), 信区: Animals
标 题: 鸟儿的情感 分享食物!
发信站: BBS 未名空间站 (Thu Jul 26 20:08:53 2012, 美东)
不认识这种鸟。
avatar
l*n
3
.
avatar
y*i
4
烂校,PhD,网络方向。
publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都
不是太好。。。
avatar
y*2
5
ding
avatar
r*e
6
真漂亮!

【在 i*****s 的大作中提到】
: 【 以下文字转载自 Animals 讨论区 】
: 发信人: iForpus (coelestis), 信区: Animals
: 标 题: 鸟儿的情感 分享食物!
: 发信站: BBS 未名空间站 (Thu Jul 26 20:08:53 2012, 美东)
: 不认识这种鸟。

avatar
r*3
7
他们会问一下你在paper的工作里面做了啥。
网络方向还行,发出去的paper基本都是有实实在在的工作。如果是一些偏理论方向的
paper,特别是learning之类的,再好的质量别人也不怎么care.

的东西看好坏都

【在 y*****i 的大作中提到】
: 烂校,PhD,网络方向。
: publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都
: 不是太好。。。

avatar
l*n
8
you don't have enough days in 2009 either. Ask them to stay 4.5 months in
2009.
avatar
t*g
9
很有情谊!
avatar
f*g
10
it depends on the position and education of your interviewer.
If the position requires PhD degree, your projects/publications matter a lot
; If the interviewer has PhD degree, he/she might be interested with your
research. Otherwise, nobody cares.
avatar
m*i
11
看招人的人吧? 但你强调你在你的publication里有很多coding 的实现会很有用。 抛
开coding过分强调publication 有可能引起over qualified 的反效果。
google, MS,等大公司到不注重你的coding,更注重你的个人创造力。

的东西看好坏都

【在 y*****i 的大作中提到】
: 烂校,PhD,网络方向。
: publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都
: 不是太好。。。

avatar
r*3
12
Google和MS最注重coding。特别是MS。

【在 m*****i 的大作中提到】
: 看招人的人吧? 但你强调你在你的publication里有很多coding 的实现会很有用。 抛
: 开coding过分强调publication 有可能引起over qualified 的反效果。
: google, MS,等大公司到不注重你的coding,更注重你的个人创造力。
:
: 的东西看好坏都

avatar
D*a
13
google is more focused on coding. MS allows you write pseudo code while
google requires production code on white board.

【在 r********3 的大作中提到】
: Google和MS最注重coding。特别是MS。
avatar
r*3
14
好吧。都比较注重。
我觉得networking, storage, database方面发的paper,无论如何都是有很实在的工作
。无论找什么工作,都是很帮助的。至少在工作量和说服力上比computer vision,
machine learning很多paper要强很多。
avatar
f*w
15
I have different feeling that learning is becoming popular in the industry,
if you are an expert in learning theory, to find a position in google/amazon
is very easy.
avatar
m*p
16
小弟弟,先搞个infocomm为校争光再说。阿瓜脸上也有光彩的说。

的东西看好坏都

【在 y*****i 的大作中提到】
: 烂校,PhD,网络方向。
: publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都
: 不是太好。。。

avatar
C*e
17
.....这不是胡说吗

【在 r********3 的大作中提到】
: 好吧。都比较注重。
: 我觉得networking, storage, database方面发的paper,无论如何都是有很实在的工作
: 。无论找什么工作,都是很帮助的。至少在工作量和说服力上比computer vision,
: machine learning很多paper要强很多。

avatar
m*n
18
完全同意。特别是amazon。

,
amazon

【在 f*****w 的大作中提到】
: I have different feeling that learning is becoming popular in the industry,
: if you are an expert in learning theory, to find a position in google/amazon
: is very easy.

avatar
m*n
19
不要再误导别人了。不知道的话还是不要说。看看招聘广告,多少大公司在招learning
的人。

【在 r********3 的大作中提到】
: 他们会问一下你在paper的工作里面做了啥。
: 网络方向还行,发出去的paper基本都是有实实在在的工作。如果是一些偏理论方向的
: paper,特别是learning之类的,再好的质量别人也不怎么care.
:
: 的东西看好坏都

avatar
C*e
20
一直不明白那个running123到底是什么都不懂在胡说,还是故意误导。。。。。

learning

【在 m**********n 的大作中提到】
: 不要再误导别人了。不知道的话还是不要说。看看招聘广告,多少大公司在招learning
: 的人。

avatar
W*y
21
那能多说两句吗,现在machine learning和data mining的phd找工作很吃香?
感觉machine learning的phd平时写写matlab,倒腾公式,离公司的工程要求好像远点。

learning

【在 m**********n 的大作中提到】
: 不要再误导别人了。不知道的话还是不要说。看看招聘广告,多少大公司在招learning
: 的人。

avatar
C*e
22
业界/学术界,用ML/DM/IR/Stat是大趋势
具体到ML,平时用哪种工具的都有,Matlab/C++/R/Java,这看个人

点。

【在 W*********y 的大作中提到】
: 那能多说两句吗,现在machine learning和data mining的phd找工作很吃香?
: 感觉machine learning的phd平时写写matlab,倒腾公式,离公司的工程要求好像远点。
:
: learning

avatar
I*k
23
要写上去吗?

的东西看好坏都

【在 y*****i 的大作中提到】
: 烂校,PhD,网络方向。
: publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都
: 不是太好。。。

avatar
x*i
24
我现在搞security,也是一天到晚,搞statistic & machine learning。
相当的郁闷,co-adviser 是统计系的。说的东东我都不懂啊,经常被鄙视。
avatar
r*3
25
你这话,未免太贬低传统领域的从业人员了。

【在 C*********e 的大作中提到】
: 业界/学术界,用ML/DM/IR/Stat是大趋势
: 具体到ML,平时用哪种工具的都有,Matlab/C++/R/Java,这看个人
:
: 点。

avatar
M*u
26
security没什么可搞了
只能搞ml了。。。

【在 x***i 的大作中提到】
: 我现在搞security,也是一天到晚,搞statistic & machine learning。
: 相当的郁闷,co-adviser 是统计系的。说的东东我都不懂啊,经常被鄙视。

avatar
u*d
27
从学术上讲,ml 对很多领域比较有吸引力
结合 ml 的基本方法,经常能得到一些很有意思的结果
但所谓的“有意思”多数仅仅是停留在学术上
关键还是 learning 的准确率
为了发篇文章,90% 的准确率已经很高了
但在很多工业应用中,这是完全不可接受的
当然有些应用没啥问题,比如 recommendation 或者广告
偶尔推荐错了也没啥影响。
我觉得最成功的 learning 应用之一就是垃圾邮件
很简单,准确率 > 99%,应用非常广泛
从这个角度想,要是 learning 最好的准确率只有 90%
100 封邮件丢 10 封,换成哪个公司都要掂量掂量
丢这么多信,用户肯定要抱怨

【在 x***i 的大作中提到】
: 我现在搞security,也是一天到晚,搞statistic & machine learning。
: 相当的郁闷,co-adviser 是统计系的。说的东东我都不懂啊,经常被鄙视。

avatar
d*e
28
哪有你这么衡量的。
真正的应用是要调节Specificity和Sensitivity来满足需求的。
准确率只有80%的分类器,一样有可能会很实用。
一个笼统的99%准确率根本说明不了任何问题。

【在 u**d 的大作中提到】
: 从学术上讲,ml 对很多领域比较有吸引力
: 结合 ml 的基本方法,经常能得到一些很有意思的结果
: 但所谓的“有意思”多数仅仅是停留在学术上
: 关键还是 learning 的准确率
: 为了发篇文章,90% 的准确率已经很高了
: 但在很多工业应用中,这是完全不可接受的
: 当然有些应用没啥问题,比如 recommendation 或者广告
: 偶尔推荐错了也没啥影响。
: 我觉得最成功的 learning 应用之一就是垃圾邮件
: 很简单,准确率 > 99%,应用非常广泛

avatar
u*d
29
不是所有的问题都能通过参数调节来达到要求啊
就算是针对 training set 做好了,来新的咋办?
重新调?自动调?如何调?
退一步,即使模型可以参数化,如果 workload 如何,准确率就如何
可实际的 workload 可能本身就很复杂,无法 model
我提 email spam 就是因为是一个很简单的模型,不用很复杂的参数调节
对实际的 workload 就能有很好的结果。
我们的 research,很多时候提了一个方法,对 1,2,3 情况有提高
可问题是在实际的 workload 里,根本无法自动区分 1,2,3
如果这个方法对 4,5,6 不 work 或者差很多, 你让用户怎么用?
当然新的方法是有意义的,但是对实际的系统很难有影响
80% 当然可以很实用,看 application 嘛
search 为例,把 non-sense 的结果放在前几名,用户没啥问题
大多数结果好就行了。可要是 facet search,把一些 non-sense
的 value 做 navigation 就非常的尴尬

【在 d******e 的大作中提到】
: 哪有你这么衡量的。
: 真正的应用是要调节Specificity和Sensitivity来满足需求的。
: 准确率只有80%的分类器,一样有可能会很实用。
: 一个笼统的99%准确率根本说明不了任何问题。

avatar
d*e
30
果然是个外行,连基本的ROC曲线都不懂。
学过基本的机器学习课程的人都知道决策是要由代价来决定的。
比如一个指纹认证系统,把错误的识别为正确的会带来非常大的代价。
而把正确的识别为错误的代价很小,用户只要重新调整姿势输入即可。
所以作为一个指纹识别系统,False Positive Rate通常要控制的非常低,比如0.001%。
而False Negative rate有5%甚至10%都无所谓。而不是像你说的单纯追求准确率。
垃圾邮件的识别一样要作上述的调节,一般来说,把重要邮件识别为垃圾邮件,代价很
大,所以False Positive Rate也要控制的很低。这也是为什么hotmail里有很多广告邮
件会出现,原因就是他们的过滤器牺牲了FN来降低FP。
这种调节是工业应用中常用的手段,不是你一拍脑门就能在这里YY出来的

【在 u**d 的大作中提到】
: 不是所有的问题都能通过参数调节来达到要求啊
: 就算是针对 training set 做好了,来新的咋办?
: 重新调?自动调?如何调?
: 退一步,即使模型可以参数化,如果 workload 如何,准确率就如何
: 可实际的 workload 可能本身就很复杂,无法 model
: 我提 email spam 就是因为是一个很简单的模型,不用很复杂的参数调节
: 对实际的 workload 就能有很好的结果。
: 我们的 research,很多时候提了一个方法,对 1,2,3 情况有提高
: 可问题是在实际的 workload 里,根本无法自动区分 1,2,3
: 如果这个方法对 4,5,6 不 work 或者差很多, 你让用户怎么用?

avatar
r*3
31
ml只是一个工具而已,不应该夸张其作用和重要程度。
很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求
到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根
结底探索自然本质的传统学科做法来说,显得肤浅了一些。
肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢?
这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来
的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否
遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。
我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是
Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种
decision tree, SVM, neural network等程序来跑一把,然后就得到一个预测模型了。
真正搞地质学的人,在没有搞清楚地震发生的本质原因的时候,是不会做任何预报工作
的。他们会背着采样仪器,跑到深山野林,火山口,深海油田,去寻找地壳底层的岩石
样本。然后请教化学家,做物质化学组成的分析。然后请教流体力学,对地壳内部,地
幔层等物理模型做猜测。然后根据地壳漂移的学说,推断某个地理板块是否是断层带,
是否受到板块挤压。同时,根据国家地震网的探针数据分析其挤压板块是否处于活跃。
然后由此做地震预报工作。

【在 u**d 的大作中提到】
: 从学术上讲,ml 对很多领域比较有吸引力
: 结合 ml 的基本方法,经常能得到一些很有意思的结果
: 但所谓的“有意思”多数仅仅是停留在学术上
: 关键还是 learning 的准确率
: 为了发篇文章,90% 的准确率已经很高了
: 但在很多工业应用中,这是完全不可接受的
: 当然有些应用没啥问题,比如 recommendation 或者广告
: 偶尔推荐错了也没啥影响。
: 我觉得最成功的 learning 应用之一就是垃圾邮件
: 很简单,准确率 > 99%,应用非常广泛

avatar
k*n
32
i really don't think so
显然做networking system database的是一大块,ml只是小部分需求
research lab或者学校另当别论
当民工不看ml

learning

【在 m**********n 的大作中提到】
: 不要再误导别人了。不知道的话还是不要说。看看招聘广告,多少大公司在招learning
: 的人。

avatar
s*a
33
不错,这个地震的例子挺有意思的

【在 r********3 的大作中提到】
: ml只是一个工具而已,不应该夸张其作用和重要程度。
: 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求
: 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根
: 结底探索自然本质的传统学科做法来说,显得肤浅了一些。
: 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢?
: 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来
: 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否
: 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。
: 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是
: Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种

avatar
d*e
34
你这个棒槌又出来晃悠了。

【在 r********3 的大作中提到】
: ml只是一个工具而已,不应该夸张其作用和重要程度。
: 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求
: 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根
: 结底探索自然本质的传统学科做法来说,显得肤浅了一些。
: 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢?
: 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来
: 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否
: 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。
: 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是
: Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种

avatar
D*r
35
你说的大体上是没错
但是,machine learning本身也是一种观察手段
所以可以用ml的方法来帮助发现地壳运动规律,等等
而且,地震预报就是地震预报,哪个方法最管用就用哪个
这完全是engineering

【在 r********3 的大作中提到】
: ml只是一个工具而已,不应该夸张其作用和重要程度。
: 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求
: 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根
: 结底探索自然本质的传统学科做法来说,显得肤浅了一些。
: 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢?
: 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来
: 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否
: 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。
: 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是
: Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种

avatar
d*e
36
这个人是个learning盲,你跟他说这个没用。

【在 D***r 的大作中提到】
: 你说的大体上是没错
: 但是,machine learning本身也是一种观察手段
: 所以可以用ml的方法来帮助发现地壳运动规律,等等
: 而且,地震预报就是地震预报,哪个方法最管用就用哪个
: 这完全是engineering

avatar
v*0
37
你这个棒槌以来总给网民带来欢笑。

【在 r********3 的大作中提到】
: ml只是一个工具而已,不应该夸张其作用和重要程度。
: 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求
: 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根
: 结底探索自然本质的传统学科做法来说,显得肤浅了一些。
: 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢?
: 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来
: 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否
: 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。
: 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是
: Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种

avatar
z*l
38
你描述的是一种应用ML解决实际问题的方法,但是更多情况下更重要的是ML算法跟人在
实际应用中的互动。比如你说的收集历史数据,下一步是feature discovery or
extraction,找出所有可能相关的feature,这一步其实是把人的知识放进modeling的
过程。然后做feature selection,然后modeling。根据model的结果,找出不work的可
能原因,比如是某些data instance上model效果很差,那么就要人为(最好有domain
expert)找出原因。多半是有些重要的feature没有发现,然后人也可以在model的提示
下更新自己的知识。这种人与model交互提高的过程才是ml算法在实际中最常见的应用
模式。至于你说的找到原因,比起背着设备直接去找,如果有model提出方向,找原因
的过程会更加有针对性,更加有效率。

【在 r********3 的大作中提到】
: ml只是一个工具而已,不应该夸张其作用和重要程度。
: 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求
: 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根
: 结底探索自然本质的传统学科做法来说,显得肤浅了一些。
: 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢?
: 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来
: 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否
: 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。
: 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是
: Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种

avatar
m*n
39
赞一个。很多人不理解 human learning + machine learning。
另外多说一个不相关的。不要只考虑分类精度。不是非得彻底solve问题才能用。在不少应用中,能用machine learning的方法降低当前的损失就意味着赚钱。

【在 z**l 的大作中提到】
: 你描述的是一种应用ML解决实际问题的方法,但是更多情况下更重要的是ML算法跟人在
: 实际应用中的互动。比如你说的收集历史数据,下一步是feature discovery or
: extraction,找出所有可能相关的feature,这一步其实是把人的知识放进modeling的
: 过程。然后做feature selection,然后modeling。根据model的结果,找出不work的可
: 能原因,比如是某些data instance上model效果很差,那么就要人为(最好有domain
: expert)找出原因。多半是有些重要的feature没有发现,然后人也可以在model的提示
: 下更新自己的知识。这种人与model交互提高的过程才是ml算法在实际中最常见的应用
: 模式。至于你说的找到原因,比起背着设备直接去找,如果有model提出方向,找原因
: 的过程会更加有针对性,更加有效率。

avatar
r*3
40
我从来没有说ML没有用。我只是说大家不要夸大ML的实际用处。

【在 z**l 的大作中提到】
: 你描述的是一种应用ML解决实际问题的方法,但是更多情况下更重要的是ML算法跟人在
: 实际应用中的互动。比如你说的收集历史数据,下一步是feature discovery or
: extraction,找出所有可能相关的feature,这一步其实是把人的知识放进modeling的
: 过程。然后做feature selection,然后modeling。根据model的结果,找出不work的可
: 能原因,比如是某些data instance上model效果很差,那么就要人为(最好有domain
: expert)找出原因。多半是有些重要的feature没有发现,然后人也可以在model的提示
: 下更新自己的知识。这种人与model交互提高的过程才是ml算法在实际中最常见的应用
: 模式。至于你说的找到原因,比起背着设备直接去找,如果有model提出方向,找原因
: 的过程会更加有针对性,更加有效率。

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。