Redian新闻
>
为什么我的帖子被删了?
avatar
为什么我的帖子被删了?# pets - 心有所宠
a*e
1
本人文科,不善交际。所以文章都是单作者。一年发了四篇的单作者的journal paper.
沾沾自喜。结果发现有某computer science 的assistant professor 一年发文20多篇
,顿时自信心跌到了地上。心想怎么可能。一年365天,就算他一天不停的在写,一年
22篇文章,平均每两周出一篇文章。我的娘啊!这还让人活吗!
当然他的文章都是合作的文章,有若干master student, ph.d student, post doc,
还有其他的合作者。但我还是觉得这样有点太多了。写文章就像烙大饼一样,或者工厂
流水线制造东西一样。到底有多少真正有价值的呢?这都是被tenure制度逼的。
avatar
s*e
2
今天面了湾区一家小公司,做针对出版商的software的。 问的问题除了针对我的背景
外,主要集中
在data structure, database design。快结束时候问的一道题发散出新问题,让我想
了之后
尽快发信给他。一个open question在这里求大家帮忙啦!
题目:
问:做一个search engine, 每次搜索到的url肯定会有大量重复。怎么解决?
答:用hash table做 blahblah
问: 为了实现这个search engine, 你的设备是联在一起的100台电脑,它们可以同时工
作。可能
整个工作过程的某个时段这台机器得到的url set跟另一台机器得到的url set不一样,
我们又不希
望重复劳动。怎么办?
答:这100台机器不是联机了吗,把url的hash table存在global 的file system里,每
台机
器都对这个global的hash table操作
问:如果不允许存在global的file system里呢?每台机器可以send information给其
他机
器,可以接收information,但不能专门reque
avatar
L*c
3
看不下去
avatar
h*w
5
老李一年手握46篇文章笑了...

paper.

【在 a********e 的大作中提到】
: 本人文科,不善交际。所以文章都是单作者。一年发了四篇的单作者的journal paper.
: 沾沾自喜。结果发现有某computer science 的assistant professor 一年发文20多篇
: ,顿时自信心跌到了地上。心想怎么可能。一年365天,就算他一天不停的在写,一年
: 22篇文章,平均每两周出一篇文章。我的娘啊!这还让人活吗!
: 当然他的文章都是合作的文章,有若干master student, ph.d student, post doc,
: 还有其他的合作者。但我还是觉得这样有点太多了。写文章就像烙大饼一样,或者工厂
: 流水线制造东西一样。到底有多少真正有价值的呢?这都是被tenure制度逼的。

avatar
K*g
6
这些题目到底是什么意思?search engine搜到了URL,我们把重复的URL去掉,仅保留
唯一的URL在一个hash table里,是不是这样的?

【在 s*********e 的大作中提到】
: 今天面了湾区一家小公司,做针对出版商的software的。 问的问题除了针对我的背景
: 外,主要集中
: 在data structure, database design。快结束时候问的一道题发散出新问题,让我想
: 了之后
: 尽快发信给他。一个open question在这里求大家帮忙啦!
: 题目:
: 问:做一个search engine, 每次搜索到的url肯定会有大量重复。怎么解决?
: 答:用hash table做 blahblah
: 问: 为了实现这个search engine, 你的设备是联在一起的100台电脑,它们可以同时工
: 作。可能

avatar
E*H
7
早就受够了温柴油各种无脑扮酷装逼。

【在 L****c 的大作中提到】
: 看不下去
avatar
w*w
8
同問
avatar
a*k
9
不同行业没有可比性。
avatar
s*e
10
是的。同一个url只能保存一次

【在 K******g 的大作中提到】
: 这些题目到底是什么意思?search engine搜到了URL,我们把重复的URL去掉,仅保留
: 唯一的URL在一个hash table里,是不是这样的?

avatar
m*n
11
any hot girls in this one?
avatar
P*o
12
有些内容有可能误导养宠新人,原帖没有标明是搞笑贴,所以删除了
现在这个可以留着

【在 A***e 的大作中提到】
: 贴的就是在网上看到的一个搞笑的东西而已,不明白为什么被删。
: http://www.catswhothrowupgrass.com/kill.php

avatar
m*7
13
是啊 没可比性的 我有合作者一年能发七十多篇呢 还好多是high profile journal
avatar
K*g
14
每台机器有两个hashtable,一个hashtable是已经和其它机器同步了的,不重复的。另
一个hashtable是没有和其他机器同步,只是local 唯一的URL。每台机器定个timer,
周期的给其他99台机器broadcast自己的第二个hashtable,等收到其他机器的回复同步
后,就把两个hashtable合并,清空第二个hashtable(这个周期可以很长,比如2个小时一次,或者一天一次)。另外其它的99台机器,每收到同
步信息,就删掉第二个hashtable里重复的URL。

【在 s*********e 的大作中提到】
: 今天面了湾区一家小公司,做针对出版商的software的。 问的问题除了针对我的背景
: 外,主要集中
: 在data structure, database design。快结束时候问的一道题发散出新问题,让我想
: 了之后
: 尽快发信给他。一个open question在这里求大家帮忙啦!
: 题目:
: 问:做一个search engine, 每次搜索到的url肯定会有大量重复。怎么解决?
: 答:用hash table做 blahblah
: 问: 为了实现这个search engine, 你的设备是联在一起的100台电脑,它们可以同时工
: 作。可能

avatar
w*o
15
这都是啥年代的了, 还讨论?
avatar
I*s
16
可能只看到标题觉得比较恐怖吧:)
avatar
a*e
17
能大概说说70篇文章是怎么写出来的吗?就算是有合作者,互相挂名字。是不是做数据
分析的?用统计软件分析一下,有点结果就可以写篇文章?
如果是做实验,总要有个过程把?!
avatar
K*g
18
其实我有个问题不明白,为什么搜索到的URL重复的话,那些机器就是“重复劳动”呢
?反正已经搜到了,哪怕你再删掉它,也已经重复了啊。请问这个怎么解释?

【在 s*********e 的大作中提到】
: 今天面了湾区一家小公司,做针对出版商的software的。 问的问题除了针对我的背景
: 外,主要集中
: 在data structure, database design。快结束时候问的一道题发散出新问题,让我想
: 了之后
: 尽快发信给他。一个open question在这里求大家帮忙啦!
: 题目:
: 问:做一个search engine, 每次搜索到的url肯定会有大量重复。怎么解决?
: 答:用hash table做 blahblah
: 问: 为了实现这个search engine, 你的设备是联在一起的100台电脑,它们可以同时工
: 作。可能

avatar
m*n
19
there is a new one just this week?

【在 w********o 的大作中提到】
: 这都是啥年代的了, 还讨论?
avatar
w*w
20
砌詞
avatar
a*e
21
自然科学跟纯文科完全没有可比性啊。文章极长不代表有建树,很多自然科学文章仅仅
1-2页就有惊人的发现建树。文科胡诌洋洋洒洒几百页也毫无任何实用价值。

paper.

【在 a********e 的大作中提到】
: 本人文科,不善交际。所以文章都是单作者。一年发了四篇的单作者的journal paper.
: 沾沾自喜。结果发现有某computer science 的assistant professor 一年发文20多篇
: ,顿时自信心跌到了地上。心想怎么可能。一年365天,就算他一天不停的在写,一年
: 22篇文章,平均每两周出一篇文章。我的娘啊!这还让人活吗!
: 当然他的文章都是合作的文章,有若干master student, ph.d student, post doc,
: 还有其他的合作者。但我还是觉得这样有点太多了。写文章就像烙大饼一样,或者工厂
: 流水线制造东西一样。到底有多少真正有价值的呢?这都是被tenure制度逼的。

avatar
s*e
22
非常非常感谢! 跟我晚上想得差不多。
我的方法的不同之处:
因为search engine (比如google)要求实时search,一次query得到一个特定数目的
URL条目
(比如说1000条)就够了。一旦hash table的size达到了,search就停止了。所以这个
timer的
time slot非常短。
我的方法是一台机器一个hashtable和一个buffer。 buffer装一个短暂time slot里本
机得到的
unique的URLs(相当与你的local 不同步 hashtable)。其他的一模一样

时一次,或
者一天一次)。另外其它的99台机器,每收到同

【在 K******g 的大作中提到】
: 每台机器有两个hashtable,一个hashtable是已经和其它机器同步了的,不重复的。另
: 一个hashtable是没有和其他机器同步,只是local 唯一的URL。每台机器定个timer,
: 周期的给其他99台机器broadcast自己的第二个hashtable,等收到其他机器的回复同步
: 后,就把两个hashtable合并,清空第二个hashtable(这个周期可以很长,比如2个小时一次,或者一天一次)。另外其它的99台机器,每收到同
: 步信息,就删掉第二个hashtable里重复的URL。

avatar
w*o
23
靠,还真有。IMDb 都只有5.5. 是没得看了。 vin diesel 的号召力还是有的,估计
片子太烂了,纯粹炒冷饭,不走心,忽悠群众。
[在 machineman (器男) 的大作中提到:]
:there is a new one just this week?
avatar
I*s
24
我刚才也没敢点进去看,以为是有人恶意发的东东,汗一个。。。
看到是搞笑的,才放心看了
avatar
w*x
25
我觉得是学科差异。70篇虽然是少数,十几二十篇的倒也不足为怪。这种类型的文章并
不是他一个人的,而是他的整个团队和他的合作团队一起做出来的结果。平均看到每个
人头上,你就可以理解啦。

【在 a********e 的大作中提到】
: 能大概说说70篇文章是怎么写出来的吗?就算是有合作者,互相挂名字。是不是做数据
: 分析的?用统计软件分析一下,有点结果就可以写篇文章?
: 如果是做实验,总要有个过程把?!

avatar
s*e
26
原话exactly怎么说的我不记得了,大概意思就是避免每台机器独立工作。

【在 K******g 的大作中提到】
: 其实我有个问题不明白,为什么搜索到的URL重复的话,那些机器就是“重复劳动”呢
: ?反正已经搜到了,哪怕你再删掉它,也已经重复了啊。请问这个怎么解释?

avatar
b*a
27
There is a 78% chance your cat is plotting to kill you,哈哈哈哈
avatar
k*g
28
我觉得不管什么学科,一年发50篇以上文章其实都是非常匪夷所思的事情(当然现在扭
曲的状况就是这样的现实,结果大家习以为常见怪不怪了),平均一周发表(不是只是
投一次而已哦)一篇文章,到底有多少时间花在了解实验细节,核实文献背景,检查文
章写作,回答审稿人意见,确认最终校样上了(不要求PI参与课题规划,合作者沟通,
实验设计,数据分析的情况下-_-b)?这样的文章,作为通讯作者真的能对文章负责么
(且不说对文章有什么学术贡献)?反正我看到一些报告,下面有人提问,所有关键环
节PI都不知道,让提问者直接联系文章一作,也就是说基本就是一作写了个PPT让PI念
。。。(其实我做学生时也是这么干)
avatar
y*n
29
题目的意思是所有100台机子都做url搜索,要求去除重复的url同时不能用global的hashtable?
答:每台机子都储存同样的hash函数,能将url string均匀映射到100台机子中的任意一台,再在被映射的机子上本地查询是否重复。

【在 s*********e 的大作中提到】
: 今天面了湾区一家小公司,做针对出版商的software的。 问的问题除了针对我的背景
: 外,主要集中
: 在data structure, database design。快结束时候问的一道题发散出新问题,让我想
: 了之后
: 尽快发信给他。一个open question在这里求大家帮忙啦!
: 题目:
: 问:做一个search engine, 每次搜索到的url肯定会有大量重复。怎么解决?
: 答:用hash table做 blahblah
: 问: 为了实现这个search engine, 你的设备是联在一起的100台电脑,它们可以同时工
: 作。可能

avatar
a*d
30
如果是四篇文章刚好在同一年被接受,也算正常。
如果能够稳定地每年出四篇,还是独立作者,在文科里那是非常非常高产的了。
avatar
f*w
31

check Yale Sparse matrix storage, there may be better way to do it.
If on parallel machine, you can partition the matrix into smaller ones.

【在 s*********e 的大作中提到】
: 今天面了湾区一家小公司,做针对出版商的software的。 问的问题除了针对我的背景
: 外,主要集中
: 在data structure, database design。快结束时候问的一道题发散出新问题,让我想
: 了之后
: 尽快发信给他。一个open question在这里求大家帮忙啦!
: 题目:
: 问:做一个search engine, 每次搜索到的url肯定会有大量重复。怎么解决?
: 答:用hash table做 blahblah
: 问: 为了实现这个search engine, 你的设备是联在一起的100台电脑,它们可以同时工
: 作。可能

avatar
L*s
32
你说这些都是学生该干的。PI要做的就是把学生train出来。
举个例子,你信不信学生为主写/改的proposal能中?过去一年里,我们组这样的事情发
生过不止一次,包括NSF(当然是recycle的)。
学生自己写的文章能中top conference/journal我基本没改,或者只是大概改了英语的
也不少。

【在 k***g 的大作中提到】
: 我觉得不管什么学科,一年发50篇以上文章其实都是非常匪夷所思的事情(当然现在扭
: 曲的状况就是这样的现实,结果大家习以为常见怪不怪了),平均一周发表(不是只是
: 投一次而已哦)一篇文章,到底有多少时间花在了解实验细节,核实文献背景,检查文
: 章写作,回答审稿人意见,确认最终校样上了(不要求PI参与课题规划,合作者沟通,
: 实验设计,数据分析的情况下-_-b)?这样的文章,作为通讯作者真的能对文章负责么
: (且不说对文章有什么学术贡献)?反正我看到一些报告,下面有人提问,所有关键环
: 节PI都不知道,让提问者直接联系文章一作,也就是说基本就是一作写了个PPT让PI念
: 。。。(其实我做学生时也是这么干)

avatar
s*e
33
是的

hashtable?
意一台,再在
被映射的机子上本地查询是否重复。

【在 y****n 的大作中提到】
: 题目的意思是所有100台机子都做url搜索,要求去除重复的url同时不能用global的hashtable?
: 答:每台机子都储存同样的hash函数,能将url string均匀映射到100台机子中的任意一台,再在被映射的机子上本地查询是否重复。

avatar
X*A
34
这个不一样,我所在的社会科学,文章又臭又长,我的文章一般至少1万字,要是
single author的话很费时间。没法和其他集团作战的比。
avatar
s*e
35
昨天发了回答之后,今天又收到后续问题了:
大概是说:
1:如果机器数目不断上升,这种broadcast来使各个机器的hash table同步的方法不
scalable. 并且You also do not handle the real case that machines go up and
down, taken offline(是说机器掉线了么?) or more machines are brought
online.
2: broadcast的过程中,丢包的情况不可避免,那样就会出现各个机器上的hash
table不同步
问题越问越多了都,真是头疼。。。大家有什么看法么?
avatar
b*h
36
1w字。。。我的天,谁有那个时间和精力看完呢;reviewer得累死啊

【在 X****A 的大作中提到】
: 这个不一样,我所在的社会科学,文章又臭又长,我的文章一般至少1万字,要是
: single author的话很费时间。没法和其他集团作战的比。

avatar
f*r
37
这个问题感觉似乎可以用mapreduce的方式解决吧:
可以让多台电脑同时开始crawling URLs,
然后每个URL利用hashing原理得到一个hashing value,
把这个hashing value % (记录hashingtable的pc数目)
就是取余,这样可以保证一个hashing value会映射
到同一台机器上,这样似乎就可以了?
我不是很确定,只是之前做过类似的题目,楼主看看
是否合理?

【在 s*********e 的大作中提到】
: 今天面了湾区一家小公司,做针对出版商的software的。 问的问题除了针对我的背景
: 外,主要集中
: 在data structure, database design。快结束时候问的一道题发散出新问题,让我想
: 了之后
: 尽快发信给他。一个open question在这里求大家帮忙啦!
: 题目:
: 问:做一个search engine, 每次搜索到的url肯定会有大量重复。怎么解决?
: 答:用hash table做 blahblah
: 问: 为了实现这个search engine, 你的设备是联在一起的100台电脑,它们可以同时工
: 作。可能

avatar
x*r
38
不是所有人都这么多的,一样的理工科,我感觉我们全组4年下来出的我看得上的paper
也不到3篇,仔细看看大部分都是trivial。
avatar
s*e
39
谢谢!我觉得很有道理。这样就是每台机器不保持各自的synchronized hashtable,而
是各自保存
一部分, 查询的时候可以指定到特定机器。 这个思路应该比各自保存同步hash table好

【在 f*******r 的大作中提到】
: 这个问题感觉似乎可以用mapreduce的方式解决吧:
: 可以让多台电脑同时开始crawling URLs,
: 然后每个URL利用hashing原理得到一个hashing value,
: 把这个hashing value % (记录hashingtable的pc数目)
: 就是取余,这样可以保证一个hashing value会映射
: 到同一台机器上,这样似乎就可以了?
: 我不是很确定,只是之前做过类似的题目,楼主看看
: 是否合理?

avatar
X*A
40
我们的journal,一般一年四期,一期四篇文章。好的journal也就几个,要是摊上李老
师这样的大牛,那整个领域的journal都不够。

【在 b******h 的大作中提到】
: 1w字。。。我的天,谁有那个时间和精力看完呢;reviewer得累死啊
avatar
s*e
41
这是一位网友的回答,我觉得很好就贴出来分享了,用consistent hash来做。
寄信人: duduhao (dudu)
标 题: Re: 在线紧急求助一道system design面试题,面经内附
发信站: 未名空间 (Wed Jun 23 01:16:45 2010)
来 源: 24.17.

Hi Shiningfree
Just saw your post. I can help you on this
Your answer is workable, but it is not optimized, so the hiring manager
follow up with you today. I will give you some of my ideas, hope it is
helpful to you.
There is a kind of data structure called consistent hashing, you can google
or wiki it. it is the critical data structure can be

【在 s*********e 的大作中提到】
: 今天面了湾区一家小公司,做针对出版商的software的。 问的问题除了针对我的背景
: 外,主要集中
: 在data structure, database design。快结束时候问的一道题发散出新问题,让我想
: 了之后
: 尽快发信给他。一个open question在这里求大家帮忙啦!
: 题目:
: 问:做一个search engine, 每次搜索到的url肯定会有大量重复。怎么解决?
: 答:用hash table做 blahblah
: 问: 为了实现这个search engine, 你的设备是联在一起的100台电脑,它们可以同时工
: 作。可能

avatar
L*s
42
我们是靠谁产生的垃圾多取胜。质量不行只能靠数量,比不了你们这些大牛。

【在 X****A 的大作中提到】
: 我们的journal,一般一年四期,一期四篇文章。好的journal也就几个,要是摊上李老
: 师这样的大牛,那整个领域的journal都不够。

avatar
s*e
43
恶补了两天学了不少东西。觉得这几个概念/知识点值得学习:
distributed hash table: 分布式系统里的hashtable
http://en.wikipedia.org/wiki/Distributed_hash_table#Keyspace_partitioning
consistent hashing:增加或删除hash表中的entry时,如何减小remapping的条目数量
。(注意这里的删除不是指清空某个entry里的对应值,而是指把整个entry删掉,这样
常常导致排在这个entry后面的所有entry都需要remapping,如果是传统的连续
hashtable的话)
http://en.wikipedia.org/wiki/Consistent_hashing
关于reducemap,基本原理及要点是 将数据交给不同的机器去处理,数据划分,结果归
约。这道题里的 把hash table存在分布式系统的不同的机器上,理论上可以算
reducemap的一种吗?
avatar
w*q
44
真正的大牛是几年磨一剑的

【在 X****A 的大作中提到】
: 我们的journal,一般一年四期,一期四篇文章。好的journal也就几个,要是摊上李老
: 师这样的大牛,那整个领域的journal都不够。

avatar
X*A
45
小虾米汗颜呀,小破校AP,为了评tenure整天哼哧哼哧写没人看的裹脚布,此生和牛无
缘!

【在 L***s 的大作中提到】
: 我们是靠谁产生的垃圾多取胜。质量不行只能靠数量,比不了你们这些大牛。
avatar
n*l
46
一篇论文十几到二十页纸,不算多。

【在 b******h 的大作中提到】
: 1w字。。。我的天,谁有那个时间和精力看完呢;reviewer得累死啊
avatar
m*7
47
不是实验学科 是统计分析的那种 而且合作者的确非常productive和work hard 基本上
没有超过一天回的email
avatar
w*q
48
是啊,这些人没见过100多页的paper。我们随便一个动作不都是30,40页的吗

【在 n*******l 的大作中提到】
: 一篇论文十几到二十页纸,不算多。
avatar
c*i
49
re,姚期智一辈子的文章比不上某些大牛一年的

【在 w*q 的大作中提到】
: 真正的大牛是几年磨一剑的
avatar
a*d
50
去年审过一篇,多少字不知道,double-space 99页,跟文献和前一轮的审稿人一个阵
地接一个阵地地肉搏,看到吐...

【在 b******h 的大作中提到】
: 1w字。。。我的天,谁有那个时间和精力看完呢;reviewer得累死啊
avatar
w*q
51
看看某大牛的当年的大作:
Wiles, Andrew Modular elliptic curves and Fermat's last theorem. Ann. of
Math. (2) 141 (1995), no. 3, 443–551.
100多页啊。
该牛1977年就发第一篇paper了,到目前只有25篇。估计只有很多人的一个几分之一。
avatar
n*g
52
搞数学的都这样,这已是非常好的case.

【在 w*q 的大作中提到】
: 看看某大牛的当年的大作:
: Wiles, Andrew Modular elliptic curves and Fermat's last theorem. Ann. of
: Math. (2) 141 (1995), no. 3, 443–551.
: 100多页啊。
: 该牛1977年就发第一篇paper了,到目前只有25篇。估计只有很多人的一个几分之一。

avatar
j*o
53
你这么说就误导了,其实让一只猴子写文章或者proposal也能中,只要后面加上老李的
名字

情发

【在 L***s 的大作中提到】
: 你说这些都是学生该干的。PI要做的就是把学生train出来。
: 举个例子,你信不信学生为主写/改的proposal能中?过去一年里,我们组这样的事情发
: 生过不止一次,包括NSF(当然是recycle的)。
: 学生自己写的文章能中top conference/journal我基本没改,或者只是大概改了英语的
: 也不少。

avatar
q*d
54
国内几年前就有一年50篇,100篇的大神了

paper.

【在 a********e 的大作中提到】
: 本人文科,不善交际。所以文章都是单作者。一年发了四篇的单作者的journal paper.
: 沾沾自喜。结果发现有某computer science 的assistant professor 一年发文20多篇
: ,顿时自信心跌到了地上。心想怎么可能。一年365天,就算他一天不停的在写,一年
: 22篇文章,平均每两周出一篇文章。我的娘啊!这还让人活吗!
: 当然他的文章都是合作的文章,有若干master student, ph.d student, post doc,
: 还有其他的合作者。但我还是觉得这样有点太多了。写文章就像烙大饼一样,或者工厂
: 流水线制造东西一样。到底有多少真正有价值的呢?这都是被tenure制度逼的。

avatar
l*e
55
不是一个领域的,你犯不着羡慕嫉妒。人家一年 20 篇,不见得有什么油水;而文科有
些几年写一篇,也许就能得终身成就奖。
文科理科就更难比了。文科你一个思路展开,调查总结,圆自己的论点,还要争取有学
术价值及应用前景,这个可能费时数年,然后发一篇大文章;理科也不一定容易,一个
理论突破或许要几代人努力,但是这个重要突破努力成功之后,完全有可能短期内在好
多具体方面得到应用,每一个应用成功都可以是一篇文章,因为他们独立不干涉。计算
机专业这么发,可能是某个算法获得领先,然后作者就可以在许多课题上运用这个算法。

paper.

【在 a********e 的大作中提到】
: 本人文科,不善交际。所以文章都是单作者。一年发了四篇的单作者的journal paper.
: 沾沾自喜。结果发现有某computer science 的assistant professor 一年发文20多篇
: ,顿时自信心跌到了地上。心想怎么可能。一年365天,就算他一天不停的在写,一年
: 22篇文章,平均每两周出一篇文章。我的娘啊!这还让人活吗!
: 当然他的文章都是合作的文章,有若干master student, ph.d student, post doc,
: 还有其他的合作者。但我还是觉得这样有点太多了。写文章就像烙大饼一样,或者工厂
: 流水线制造东西一样。到底有多少真正有价值的呢?这都是被tenure制度逼的。

avatar
k*g
56
做老板的第一责任当然是培养学生,学生有能力固然可喜,但是我说的与这无关,我是
说是如果PI根本没参与,就不应该列在authorlist里面打上星号,因为他们根本没资格
也无法为文章负责。很多造假的文章,出来后导师说他不知道,不负责,既然这样还打
什么星号嘛。
我自己做博士后的时候也是自己写proposal,老板只改几个字(少于十个),而且其实
从头就是我自己在老板重重限制下自己找课题,自己联系合作老师,还苦苦在老板和合
作老师之间疏通关系才让老板同意这课题,结果拿到钱了我老板就说是他慧眼;而且当
时那组里有NB的博士生也是自己写proposal,可以拿到钱。我们那个老板名气大岁数大
根本不参与实质的工作的,其实他也根本没充当导师培养的角色,只是学生很强可以自
力更生。只要导师名气大或者会吹能刮到钱,不愁没有自己能独当一面的学生报名来打
工。
但是,这些和我说的文章中corresponding author应该负的责任没关系,您说对么?
PS,关于文章造假,有个比较争议的问题是那些合作单位的人究竟是否有连带责任。

情发

【在 L***s 的大作中提到】
: 你说这些都是学生该干的。PI要做的就是把学生train出来。
: 举个例子,你信不信学生为主写/改的proposal能中?过去一年里,我们组这样的事情发
: 生过不止一次,包括NSF(当然是recycle的)。
: 学生自己写的文章能中top conference/journal我基本没改,或者只是大概改了英语的
: 也不少。

avatar
L*s
57
这个就扯得远的。比如我天天在组里说不得抄袭。但是非有个学生抄了一段,我还没看
出来。我的责任有多大?警察也不可能破所有的案子,何况学生是故意的。不能说我就
跟小岛方晴子的导师一样自杀吧?

【在 k***g 的大作中提到】
: 做老板的第一责任当然是培养学生,学生有能力固然可喜,但是我说的与这无关,我是
: 说是如果PI根本没参与,就不应该列在authorlist里面打上星号,因为他们根本没资格
: 也无法为文章负责。很多造假的文章,出来后导师说他不知道,不负责,既然这样还打
: 什么星号嘛。
: 我自己做博士后的时候也是自己写proposal,老板只改几个字(少于十个),而且其实
: 从头就是我自己在老板重重限制下自己找课题,自己联系合作老师,还苦苦在老板和合
: 作老师之间疏通关系才让老板同意这课题,结果拿到钱了我老板就说是他慧眼;而且当
: 时那组里有NB的博士生也是自己写proposal,可以拿到钱。我们那个老板名气大岁数大
: 根本不参与实质的工作的,其实他也根本没充当导师培养的角色,只是学生很强可以自
: 力更生。只要导师名气大或者会吹能刮到钱,不愁没有自己能独当一面的学生报名来打

avatar
t*u
58
只要不造假,无可非议,把自己实验的结果毫无保留的贡献出来,这是雷锋精神
avatar
p*y
59
“本人文科”。。。好业余。。。

paper.

【在 a********e 的大作中提到】
: 本人文科,不善交际。所以文章都是单作者。一年发了四篇的单作者的journal paper.
: 沾沾自喜。结果发现有某computer science 的assistant professor 一年发文20多篇
: ,顿时自信心跌到了地上。心想怎么可能。一年365天,就算他一天不停的在写,一年
: 22篇文章,平均每两周出一篇文章。我的娘啊!这还让人活吗!
: 当然他的文章都是合作的文章,有若干master student, ph.d student, post doc,
: 还有其他的合作者。但我还是觉得这样有点太多了。写文章就像烙大饼一样,或者工厂
: 流水线制造东西一样。到底有多少真正有价值的呢?这都是被tenure制度逼的。

avatar
w*n
60
这玩意儿同行心中自然有数
你不是同行,就甭操那个心了

paper.

【在 a********e 的大作中提到】
: 本人文科,不善交际。所以文章都是单作者。一年发了四篇的单作者的journal paper.
: 沾沾自喜。结果发现有某computer science 的assistant professor 一年发文20多篇
: ,顿时自信心跌到了地上。心想怎么可能。一年365天,就算他一天不停的在写,一年
: 22篇文章,平均每两周出一篇文章。我的娘啊!这还让人活吗!
: 当然他的文章都是合作的文章,有若干master student, ph.d student, post doc,
: 还有其他的合作者。但我还是觉得这样有点太多了。写文章就像烙大饼一样,或者工厂
: 流水线制造东西一样。到底有多少真正有价值的呢?这都是被tenure制度逼的。

avatar
b*h
61
我的学生目前还在我得逐字逐句改的阶段,基本上跟我自己重写一遍差不多。
Sigh,idea是我的,写也是我写的,但是最后还要让学生当一作

【在 k***g 的大作中提到】
: 做老板的第一责任当然是培养学生,学生有能力固然可喜,但是我说的与这无关,我是
: 说是如果PI根本没参与,就不应该列在authorlist里面打上星号,因为他们根本没资格
: 也无法为文章负责。很多造假的文章,出来后导师说他不知道,不负责,既然这样还打
: 什么星号嘛。
: 我自己做博士后的时候也是自己写proposal,老板只改几个字(少于十个),而且其实
: 从头就是我自己在老板重重限制下自己找课题,自己联系合作老师,还苦苦在老板和合
: 作老师之间疏通关系才让老板同意这课题,结果拿到钱了我老板就说是他慧眼;而且当
: 时那组里有NB的博士生也是自己写proposal,可以拿到钱。我们那个老板名气大岁数大
: 根本不参与实质的工作的,其实他也根本没充当导师培养的角色,只是学生很强可以自
: 力更生。只要导师名气大或者会吹能刮到钱,不愁没有自己能独当一面的学生报名来打

avatar
a*n
62
高产的大牛也是有的。Herbert Simon一生据说发了近一千的文章。平均下来两三周就
有一篇。多数还是在发明PC之前,没有Word,没有Email的年代写出来的。虽然没一篇
篇读过,但是我想以他的水平和身份肯定是不屑于做挂名作者发灌水文章的。

【在 w*q 的大作中提到】
: 真正的大牛是几年磨一剑的
avatar
m*u
63
纯文学,一年超过5篇估计就会被认为是灌水了
avatar
z*t
64
BSO学生质量高
让我们这些野鸡学校汗颜
受刺激了,今年一定要上市场

情发

【在 L***s 的大作中提到】
: 你说这些都是学生该干的。PI要做的就是把学生train出来。
: 举个例子,你信不信学生为主写/改的proposal能中?过去一年里,我们组这样的事情发
: 生过不止一次,包括NSF(当然是recycle的)。
: 学生自己写的文章能中top conference/journal我基本没改,或者只是大概改了英语的
: 也不少。

avatar
k*g
65
呵呵,说的不好听点这个你自己无论如何是有责任的
要么是没吸引到好学生,要么是眼光不好招进了资质太差的,要么是和学生沟通不好结
果学生不主动,要么是对学生training方法不够好。

【在 b******h 的大作中提到】
: 我的学生目前还在我得逐字逐句改的阶段,基本上跟我自己重写一遍差不多。
: Sigh,idea是我的,写也是我写的,但是最后还要让学生当一作

avatar
k*g
66
其实我前老板也有一千篇文章,不是近一千。不过我始终不觉得这是学术圈应该的模式
。当然了像我这种小破校刚起步无名小辈思考这个纯属多余呵呵。

【在 a*****n 的大作中提到】
: 高产的大牛也是有的。Herbert Simon一生据说发了近一千的文章。平均下来两三周就
: 有一篇。多数还是在发明PC之前,没有Word,没有Email的年代写出来的。虽然没一篇
: 篇读过,但是我想以他的水平和身份肯定是不屑于做挂名作者发灌水文章的。

avatar
k*g
67
李老师,你成功是有原因的,因为你的做法适应这个大环境,这个我们必须得学习。
我当然知道现在就是这个情况,可是照你自己这里说的,不也是通讯作者其实没法对文
章负责么?杜绝抄袭,当然不是喊句口号就行了,作为导师,要全程深入参与课题,自
然可以看出来有没有问题,如果看不出来,那是能力问题,不适合当PI。之前跟我合作
的年轻老师,对我们的课题就远比我自己的导师熟悉的多,就是因为他参与实质讨论,
认真思考,查阅文献,亲自分析数据,而不是让我自己闷头干完他签字。

【在 L***s 的大作中提到】
: 这个就扯得远的。比如我天天在组里说不得抄袭。但是非有个学生抄了一段,我还没看
: 出来。我的责任有多大?警察也不可能破所有的案子,何况学生是故意的。不能说我就
: 跟小岛方晴子的导师一样自杀吧?

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。