Redian新闻
>
智商250到底是个什么情况?
avatar
智商250到底是个什么情况?# Joke - 肚皮舞运动
D*r
1
以前面试碰到过的
都没有唯一正确答案,看看大家有什么好的意见
1 给一段文字,怎么区分是小说还是小说的书评?
比如harry potter和harry potter的review,用什么办法区别?
(当然是用程序,不是找人读)
2 如果推出一种新产品,比如光控节能灯,怎么在投放市场之前估算受欢迎程度?
怎么找出值得推荐的用户?
3 如果商品针对用户的推荐程度有1~5五个等级,有什么办法来计算这些等级?需要什
么数据?用什么模型?
avatar
S*g
2
【 以下文字转载自 Military 讨论区 】
发信人: StephenKing (金博士), 信区: Military
标 题: 居然有傻X通过正规途径合法雇住家保姆!!!
发信站: BBS 未名空间站 (Sun Aug 17 14:43:22 2014, 美东)
发信人: toprunner (小笼包包), 信区: SanFrancisco
标 题: Re: 其实月嫂以后还是可以请
发信站: BBS 未名空间站 (Sat Aug 16 01:00:43 2014, 美东)
是可以雇住家保姆的, 只要不超时工作。
我们通过正当的, 比较大的老美公司雇的住家保姆, 就规定保姆要有自己单独的
bedroom, 一周只能工作 45 小时, 每个月至少有一个完整的不工作的双休日, 每周
开始之前要公布下周的 schedule 工作时间, 如果和上周不一样。 比如, 你如果说
, 中午 1-3PM 午休, 如果那时宝宝没有睡, 你要来接手, 让保姆休息。 不能说,
宝宝午睡了, 你休息。 公司还说, 12:00 am -5:00 am 是不能安排工作的, 即便
你满足45小时per week. 现在看来这些规定都是保护双方的。
因为管食宿, 价格是便宜的, 我们是和公司签的合约, 是按年签的,可以把保姆退
回去, 如果不满意, 他们再派新的。 我们大部分的钱是给了公司了, 只按公司说的
金额给保姆本人。 平均到每个月是 1500-1700 。 因为保姆有过特殊培训的就, 贵一
点儿, 比如特殊教育, 婴儿护理什么的。
avatar
w*e
3
【 以下文字转载自 Rainbow 讨论区 】
发信人: whiteRice (白米饭), 信区: Rainbow
标 题: D&G 2012春夏 Menswear 缤纷斑斓的印花图纹与牛仔,看着有Hermes的影子。。。
发信站: BBS 未名空间站 (Thu Jun 23 11:45:59 2011, 美东)
随便看看。
avatar
H*g
4
大家估计一下。
avatar
d*e
5
1. bag of words+ naive bayesian.
2. A/B test + collobrative filtering.
3. like amazon

【在 D***r 的大作中提到】
: 以前面试碰到过的
: 都没有唯一正确答案,看看大家有什么好的意见
: 1 给一段文字,怎么区分是小说还是小说的书评?
: 比如harry potter和harry potter的review,用什么办法区别?
: (当然是用程序,不是找人读)
: 2 如果推出一种新产品,比如光控节能灯,怎么在投放市场之前估算受欢迎程度?
: 怎么找出值得推荐的用户?
: 3 如果商品针对用户的推荐程度有1~5五个等级,有什么办法来计算这些等级?需要什
: 么数据?用什么模型?

avatar
f*x
6
这很傻吗?有公司的,至少背景调查健康体检什么的都做过,放心。培训过,也比较会
科学带孩子。

【在 S*********g 的大作中提到】
: 【 以下文字转载自 Military 讨论区 】
: 发信人: StephenKing (金博士), 信区: Military
: 标 题: 居然有傻X通过正规途径合法雇住家保姆!!!
: 发信站: BBS 未名空间站 (Sun Aug 17 14:43:22 2014, 美东)
: 发信人: toprunner (小笼包包), 信区: SanFrancisco
: 标 题: Re: 其实月嫂以后还是可以请
: 发信站: BBS 未名空间站 (Sat Aug 16 01:00:43 2014, 美东)
: 是可以雇住家保姆的, 只要不超时工作。
: 我们通过正当的, 比较大的老美公司雇的住家保姆, 就规定保姆要有自己单独的
: bedroom, 一周只能工作 45 小时, 每个月至少有一个完整的不工作的双休日, 每周

avatar
z*i
7
我觉得那个王谁谁,前高考状元那个,差不多

【在 H********g 的大作中提到】
: 大家估计一下。
avatar
D*r
8

如果用bag of words, 小说和小说的书评会不会有很多重叠的特征?毕竟人物事件什么
的会有可能一致。

【在 d******e 的大作中提到】
: 1. bag of words+ naive bayesian.
: 2. A/B test + collobrative filtering.
: 3. like amazon

avatar
H*g
9
我觉得智商主要就是一个洞察力。比如说下棋,没有看过任何谱,智商高的可以准确多
算几步,智商低的就算不出来。
avatar
D*r
10
再补充两个问题:
1 如果数据严重biased,比如positive的占绝大多数,有什么好的办法处理?
2 如果数据中只有一小部分有label,其他的有feature但是没有label,
怎么利用这些数据来建立模型
avatar
H*g
11
我觉得他智商并不高。江南大学那个文章看出来他对因果关系的敏感度非常低。
如果说那个文章反映了他思维上的优点,我觉得就是对琐事的记忆力很强,或者有很好
的笔记习惯。

【在 z***i 的大作中提到】
: 我觉得那个王谁谁,前高考状元那个,差不多
avatar
l*5
12
表示没有经历过
avatar
z*i
13
记忆力很多时候能挑战智商
背本更高智商人的棋谱,能下赢一大片高智商

【在 H********g 的大作中提到】
: 我觉得智商主要就是一个洞察力。比如说下棋,没有看过任何谱,智商高的可以准确多
: 算几步,智商低的就算不出来。

avatar
o*4
14

1。用现在的model来sample更多case,只加入现在model说是negative的case,然后用
human label?
2. assign higher weights for negative instances?
3. 如果没有rating资源,直接加presume negatives?
些数据来建立模型
clustering,然后看那个cluster里有label的instance大多是什么label?

【在 D***r 的大作中提到】
: 再补充两个问题:
: 1 如果数据严重biased,比如positive的占绝大多数,有什么好的办法处理?
: 2 如果数据中只有一小部分有label,其他的有feature但是没有label,
: 怎么利用这些数据来建立模型

avatar
z*i
15
我觉得这个验证了我的记忆迷惑智商的理论
我把他和250扯在一起是纯开玩笑的

我觉得他智商并不高。江南大学那个文章看出来他对因果关系的敏感度非常低。
如果说那个文章反映了他思维上的优点,我觉得就是对琐事的记忆力很强,或者有很好
的笔记习惯。

【在 H********g 的大作中提到】
: 我觉得他智商并不高。江南大学那个文章看出来他对因果关系的敏感度非常低。
: 如果说那个文章反映了他思维上的优点,我觉得就是对琐事的记忆力很强,或者有很好
: 的笔记习惯。

avatar
o*4
16

声明:不是data scientist。data scientist面试都求不到…… 我来瞎蒙。
human label instances -> extract text features from documents -> assign
weights of importance of each feature from the document using things like tf
-idf, also pay attention to position of the text feature (url term, title
term...etc) -> train an svm model using some labeled data -> evaluate model
precision recall and f score using hold off set data.
什么数据?用什么模型?
- Use existing ratings and product similarity to estimate future ratings
- Collaborative filtering using user similarly
- Shopping basket frequent pair analysis

【在 D***r 的大作中提到】
: 以前面试碰到过的
: 都没有唯一正确答案,看看大家有什么好的意见
: 1 给一段文字,怎么区分是小说还是小说的书评?
: 比如harry potter和harry potter的review,用什么办法区别?
: (当然是用程序,不是找人读)
: 2 如果推出一种新产品,比如光控节能灯,怎么在投放市场之前估算受欢迎程度?
: 怎么找出值得推荐的用户?
: 3 如果商品针对用户的推荐程度有1~5五个等级,有什么办法来计算这些等级?需要什
: 么数据?用什么模型?

avatar
R*a
17
算棋多几步也是主要看记忆力吧

【在 H********g 的大作中提到】
: 我觉得智商主要就是一个洞察力。比如说下棋,没有看过任何谱,智商高的可以准确多
: 算几步,智商低的就算不出来。

avatar
D*r
18

我当时回答的就是做clustering,然后根据clustering的结果加上label
好像刚开始在train的时候最好不要用本来就有label的数据,而用它们来evaluate

【在 o*******4 的大作中提到】
:
: 声明:不是data scientist。data scientist面试都求不到…… 我来瞎蒙。
: human label instances -> extract text features from documents -> assign
: weights of importance of each feature from the document using things like tf
: -idf, also pay attention to position of the text feature (url term, title
: term...etc) -> train an svm model using some labeled data -> evaluate model
: precision recall and f score using hold off set data.
: 什么数据?用什么模型?
: - Use existing ratings and product similarity to estimate future ratings
: - Collaborative filtering using user similarly

avatar
H*g
19
我看智商题里好像没有考记忆的,至少不是大规模的记忆。
有种游戏,看一堆水果,然后把图遮起来让人连线,那倒是稍微有点考记忆。不过如果
把图用数字编码也很好破。记忆一串汉语数字是很容易的。

【在 z***i 的大作中提到】
: 记忆力很多时候能挑战智商
: 背本更高智商人的棋谱,能下赢一大片高智商

avatar
o*4
20
一般有labeled data肯定不能全用的,都是8/2开 80% train 20% eval吧。

【在 D***r 的大作中提到】
:
: 我当时回答的就是做clustering,然后根据clustering的结果加上label
: 好像刚开始在train的时候最好不要用本来就有label的数据,而用它们来evaluate

avatar
H*g
21
我也只是借机黑一下状元。

【在 z***i 的大作中提到】
: 我觉得这个验证了我的记忆迷惑智商的理论
: 我把他和250扯在一起是纯开玩笑的
:
: 我觉得他智商并不高。江南大学那个文章看出来他对因果关系的敏感度非常低。
: 如果说那个文章反映了他思维上的优点,我觉得就是对琐事的记忆力很强,或者有很好
: 的笔记习惯。

avatar
i*h
22
不好意思,这里能再具体讲讲吗?我被问到过类似的问题,网上看了一些但是面试官都
不太满意,可能我自己理解有偏差。你能再具体说说吗?谢谢啊
avatar
H*g
23
所以就要强调是玩没看过棋谱的游戏。
如果用下棋测智商,可以把象棋的走法临时全改了,再让他下棋。这基本可以防止棋谱
作弊。

【在 z***i 的大作中提到】
: 记忆力很多时候能挑战智商
: 背本更高智商人的棋谱,能下赢一大片高智商

avatar
e*i
24
1. Outsource to India
2. Random sample, free trials, feedback loop
3. Gaussian function, median at 3 stars.

【在 D***r 的大作中提到】
: 以前面试碰到过的
: 都没有唯一正确答案,看看大家有什么好的意见
: 1 给一段文字,怎么区分是小说还是小说的书评?
: 比如harry potter和harry potter的review,用什么办法区别?
: (当然是用程序,不是找人读)
: 2 如果推出一种新产品,比如光控节能灯,怎么在投放市场之前估算受欢迎程度?
: 怎么找出值得推荐的用户?
: 3 如果商品针对用户的推荐程度有1~5五个等级,有什么办法来计算这些等级?需要什
: 么数据?用什么模型?

avatar
z*i
25
看不出你居然不是学霸,没给点猩猩惜猩猩

我也只是借机黑一下状元。

【在 H********g 的大作中提到】
: 我也只是借机黑一下状元。
avatar
l*s
26
提供一些思路
1.用Bag of Words一般就可以,因为毕竟书评和小说里面不少词的分布还是很不一样,
比如某些表示喜欢不喜欢的词。另外可以加上其他的feature,比如文本长短,有无作
者,有无题目,里面的特殊标点符号等。在做文本预处理时,不要用stemmer和全部小
写化,因为这样会丢失很多morphological feature,你想想写评论时肯定跟小说文本
在这些方面有区别。
还有就是Naive Bayes。这里可以用Multinomial NB,应该比Bernoulli NB效果好,因
为文本相对比较多,且用词占vocabulary比重大,因此Multinomial模型好些。
在做feature时,比较一下binary,count,TFIDF,看看那个效果好。一般来说,文本
少的话,binary好些,TFIDF会比较偏向高variation,而降低bias。
另外还可以考虑加紧regularization,L1 L2那套,防止bias和variation问题。
基本上这个问题这么回答,照顾到了各方面。
2.没做过真实project 不清楚。
3.考虑Ordinal regression,处理target variable等级问题。

【在 D***r 的大作中提到】
: 以前面试碰到过的
: 都没有唯一正确答案,看看大家有什么好的意见
: 1 给一段文字,怎么区分是小说还是小说的书评?
: 比如harry potter和harry potter的review,用什么办法区别?
: (当然是用程序,不是找人读)
: 2 如果推出一种新产品,比如光控节能灯,怎么在投放市场之前估算受欢迎程度?
: 怎么找出值得推荐的用户?
: 3 如果商品针对用户的推荐程度有1~5五个等级,有什么办法来计算这些等级?需要什
: 么数据?用什么模型?

avatar
z*i
27
以后你去人事部搞招聘得了

所以就要强调是玩没看过棋谱的游戏。
如果用下棋测智商,可以把象棋的走法临时全改了,再让他下棋。这基本可以防止棋谱
作弊。

【在 H********g 的大作中提到】
: 所以就要强调是玩没看过棋谱的游戏。
: 如果用下棋测智商,可以把象棋的走法临时全改了,再让他下棋。这基本可以防止棋谱
: 作弊。

avatar
m*f
28
这个算马工设计题吗?有没有相关的资料介绍一下,貌似一点都不懂
avatar
H*g
29
我觉得这个发明应该暂时还不好破解,应该能管个两三年。
你们谁是FLG的可以拿去用,我就先不收钱了。

【在 z***i 的大作中提到】
: 以后你去人事部搞招聘得了
:
: 所以就要强调是玩没看过棋谱的游戏。
: 如果用下棋测智商,可以把象棋的走法临时全改了,再让他下棋。这基本可以防止棋谱
: 作弊。

avatar
d*e
30
你吧小说替换为邮件,评论替换为spam,然后google一下:)

【在 D***r 的大作中提到】
:
: 我当时回答的就是做clustering,然后根据clustering的结果加上label
: 好像刚开始在train的时候最好不要用本来就有label的数据,而用它们来evaluate

avatar
z*i
31
我挂二作

我觉得这个发明应该暂时还不好破解,应该能管个两三年。
你们谁是FLG的可以拿去用,我就先不收钱了。

【在 H********g 的大作中提到】
: 我觉得这个发明应该暂时还不好破解,应该能管个两三年。
: 你们谁是FLG的可以拿去用,我就先不收钱了。

avatar
D*r
32
machine learning相关职位的题
很多都是这种开放性的,课本上一般没有,
没有经验的还真不容易回答
其实我个人觉得这种面试方法不是很好
很多实用的东西其实只要一学就会了,还不如考基础知识

【在 m*f 的大作中提到】
: 这个算马工设计题吗?有没有相关的资料介绍一下,貌似一点都不懂
avatar
H*g
33
目前一共两个作者,安我们千老业的习惯你就是老板。

【在 z***i 的大作中提到】
: 我挂二作
:
: 我觉得这个发明应该暂时还不好破解,应该能管个两三年。
: 你们谁是FLG的可以拿去用,我就先不收钱了。

avatar
D*r
34
ordinal regression我以前还真没接触过
看了一下,大致是对score>s和score<=s做logistic regression,
然后用训练的模型输出一些概率
最后score=s的概率就是P(score<=s)-P(score<=s-1)
貌似还是挺合理的

【在 l*******s 的大作中提到】
: 提供一些思路
: 1.用Bag of Words一般就可以,因为毕竟书评和小说里面不少词的分布还是很不一样,
: 比如某些表示喜欢不喜欢的词。另外可以加上其他的feature,比如文本长短,有无作
: 者,有无题目,里面的特殊标点符号等。在做文本预处理时,不要用stemmer和全部小
: 写化,因为这样会丢失很多morphological feature,你想想写评论时肯定跟小说文本
: 在这些方面有区别。
: 还有就是Naive Bayes。这里可以用Multinomial NB,应该比Bernoulli NB效果好,因
: 为文本相对比较多,且用词占vocabulary比重大,因此Multinomial模型好些。
: 在做feature时,比较一下binary,count,TFIDF,看看那个效果好。一般来说,文本
: 少的话,binary好些,TFIDF会比较偏向高variation,而降低bias。

avatar
z*i
35
那我挂一作吧,不能委屈了你

目前一共两个作者,安我们千老业的习惯你就是老板。

【在 H********g 的大作中提到】
: 目前一共两个作者,安我们千老业的习惯你就是老板。
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。