LeCun 自曝拒绝谷歌研究主管offer!只想专心做研究
夕小瑶科技说 原创
作者 | 王二狗今天,图灵奖得主 Yann LeCun在推特上分享了一则往事:
大概是在1998年,谷歌联合创始人拉里·佩奇曾在斯坦福大学听过我关于 DjVu 的演讲,当时拉里·佩奇还是一名博士生。2002 年初,拉里·佩奇向我提供了谷歌研究主管的职位,但我拒绝了。
做研究和家庭更重要
有研究员问到 LeCun 为何拒绝:
LeCun 很坦诚地做了分享:
2002 年 1 月的时候,谷歌有 600 名员工,但没有任何收入,那时谷歌广告和gmail业务还没有开展。在那个阶段无法进行真正的研究,加入谷歌后要负责涉及企业战略、产品技术开发、管理等工作。但我想重新专注于机器学习、视觉、机器人和计算神经科学的基础研究。
工资低。显然,谷歌股票期权在后来会达到天价。但我当时有十几岁的儿子即将上大学,需要现金。而且硅谷的房价比新泽西州的还要贵。
我的家人不想搬到硅谷所在的加利福尼亚,你不可能把十几岁的儿子赶走而不让他们讨厌你。
我刚刚离开 AT&T,加入普林斯顿的 NEC 研究所。我想在那里从事机器学习/视觉/机器人/神经科学方面的工作。事实证明,这个地方很快就变成了一个应用研究实验室,18 个月后我去了纽约大学。
推特上,从事AI行业的研究员们觉得LeCun讲述的故事鼓舞人心:
大家都认同家庭是更重要的:
但关于LeCun讲述的第一点原因,有当时曾在谷歌工作的网友立马站出来指正:
“这不对,2002年时谷歌收入丰厚——我当时也在场。他们只是没有告诉你,因为他们不想让任何人知道他们从 AdWords 中赚了多少钱。
谷歌当时还有接近300名工程师大量正在进行令人惊叹的研究。”
一位热心网友直接查到了谷歌2001年的收入——8600 万美元。
图灵奖得主之外的另一个身份:DjVu技术发明人
想必绝大部分人熟知 Yann LeCun 都是因为他发明了CNN卷积神经网络,和Hinton和Bengio三人共同获得了图灵奖。
但实际上,Yann LeCun 还是图片压缩技术DjVu的发明人。
在上世纪90年代,LeCun 所在的 AT&T实验室被一分为二,成为「贝尔实验室」与「AT&T实验室」两个不同公司下的研究部门。LeCun虽然可以留在AT&T实验室继续他的研究,但是许多其他相关领域的朋友,例如当初协助将LeNet网络拓展到金融服务业的工程人员,都被拆散到了另一个实验室,这使得LeCun所有相关研究计划被迫暂停。
LeCun也因此有整整六年时间没有再碰神经网络。LeCun在这段时间重整他之前写到一半的论文,并与其他组员研发出新的图片压缩技术DjVu。
DjVu可以有效压缩高清晰度影像,在当时很多艺术与文化的资料,例如全彩杂志内页的扫描,若以djvu的格式储存,相较于传统的jpeg或pdf格式,大小可以缩减到五倍以上。
LeCun在推特分享:“在2002 年初,我拒绝拉里·佩奇加入谷歌的邀请后,谷歌聘请了 Luc Vincent (现任Meta AI副总裁)从事书籍扫描项目(Luc Vincent 之前在 LizardTech工作时从 AT&T手中收购了 DjVu。)
有网友觉得DjVu 比 pdf更好用,每天都使用:
谷歌或许能更加开放
LeCun在讲述拒绝谷歌研究主管时,补了一句:“如果我加入,我认为谷歌的研究文化将会有所不同。我可能早点让它变得更开放、更雄心勃勃。”
网友当即表示想看到另一个版本的谷歌:
LeCun一直主张研究成果的开放,让更多人了解自己正在从事的研究。
他曾表示:“要和大学实验室保持良好关系,让他们为你输送各类人才,进行各种可能的研究,这就必须要开放项目和研究成果。科研人员公开发表自己的研究成果是非常重要的,因为你的地位在于学术影响。 你不能简单地告诉人们‘我正在为Facebook工作,但我不能告诉你们我在研究什么’,这样你的职业生涯就毁了,这真的很重要。”
而在AI的商业化方面,LeCun也表示过:“基础研究的影响在比较长的时间后才能体现出来。你不能幻想种下一颗种子,然后就突然冒出了实际产品线,商业模式就能发生彻底改变。这是一种长期投资,它需要的是有远见的人,这样的人谷歌有,Facebook也有。”
如果LeCun在20年前真的加入了谷歌,谷歌现在会不会更加开放,会不会更强大,这都很难预料了。但目前我们能看到的事实是谷歌目前已经落后于OpenAI,不是AI第一梯队了。
另外就是,这两年在生成式AI大模型的竞争舞台上,微软+OpenAI、Google DeepMind等AI巨头已经走向了闭源路线,坚持开源路线的公司很少。
这其中LeCun所领导的 Meta AI 当属开源领袖,AI社区所有人都要感谢 Meta AI 发布并开源LLaMa,LLaMa的开源打破了ChatGPT 的垄断,也带动了大模型开源浪潮,让AI社区的更多玩家都可以参与其中。
虽然目前业界最强的大模型是 GPT-4或者 Gemini,但正如 LeCun所说,开源AI模型正在超越私有模型。
例如前些天法国初创公司 Mistral AI开源的一个Mixtral 8x7B MoE模型引爆了AI社区,它的性能击败了LLama2和GPT-3.5。
希望能如 LeCun 所说,开源AI能打破闭源垄断直到最后能够超越~
参考资料
[1]https://twitter.com/ylecun/status/1742285186614649245微信扫码关注该文公众号作者