OpenAI 终究还是违背了「祖训」公众号新闻2024-05-28 12:05作者:陈彬 文章来自:远川科技评论 6 个月前,OpenAI 爆发了一场举世瞩目的内部斗争:CEO 奥特曼(Sam Altman)突然被开除,106 个小时后,又在员工的簇拥下复职。自那之后,「刺杀国王」的始作俑者之一、首席科学家伊利亚(Ilya Sutskever),再也没有现身。伊利亚是「深度学习教父」辛顿的大弟子,OpenAI 的灵魂人物。消失前,他最后的工作,是带领名为「超级对齐」的安全团队。GPT-4o 发布会之后,伊利亚突然更新推文,宣布从 OpenAI 离职。首席科学家的退出,加速了 OpenAI 的分裂。 伊利亚(左三)与奥特曼(左四)3 天后,另一位「超级对齐」的科学家简·雷克(Jan Leike),也宣布提桶跑路。简·雷克公开爆料称,两人与奥特曼等高层存在严重分歧,安全团队举步维艰。OpenAI 的文化正在「变质」,忽视安全主义而转向「闪亮的产品」。陆续有技术大牛选择离开。一位 OpenAI 员工对着媒体说道,「注重安全的员工已经对他失去了信心。信任正一点点崩溃,就像多米诺骨牌一张一张倒下一样。」众所周知,OpenAI 是一家由理想主义情结捏合起来的机构。然而,对于如何实现这一理想,OpenAI 内部却渐渐衍生出了两条不同的路线。伊利亚的离开,意味着他所代表的理想主义,已经彻底败给了另一种理想主义。科学家与狂想家2005 年的一个周日,多伦多大学教授辛顿的办公室门外,来了个不速之客。来者是一位数学系的学生,操着一口东欧口音,表情似乎总是愁眉苦脸。彼时,辛顿是极少数仍在研究深度学习的学者,并在多伦多大学组建了一个实验室。这个学生说,他整个夏天都在快餐店兼职炸薯条,现在他更想来这个实验室工作。辛顿打算考考这位急于展现自己的年轻人,给了他一份反向传播的论文。这篇论文写于上世纪 80 年代,是辛顿最知名的研究成果之一。几天后,这个学生回来了,问他,「你为什么不求导并采用一个合理的函数优化器?」辛顿倒吸了一口气,「我花了 5 年时间才想到这一点。」这个学生,就是伊利亚。辛顿发现,伊利亚有种非常强大的原始直觉,能靠「第六感」找到正确的技术路线。因此,辛顿将伊利亚视作唯一一个比自己更「天才」的学生。 并且,辛顿很快发现,「技术天才」只是伊利亚身上的一个特质。与伊利亚长期共事过的研究员谢尔盖·莱文(Sergey Levine)曾说道,他喜欢大的想法,并且从不惧怕相信。「不怕的人有很多,但他尤其不怕。」2010 年,伊利亚在阅读了一篇论文之后,便大胆宣称,深度学习将改变计算机视觉——只需要有人来推动这项研究。在那个深度学习等同于民科的时代,伊利亚这番发言,显然是有些倒反天罡的。然而,他只花了 2 年,就打了所有人的脸。2012 年,辛顿、伊利亚以及克里哲夫斯基三人打造的 AlexNet,以高达 84% 的图像识别正确率,让世界看到了深度学习的潜力,并引发了产业界的狂热追逐。那一年,Google 花了 4400 万美元的天价,只为了将 AlexNet 的 3 位作者收入麾下。伊利亚、克里哲夫斯基与辛顿(从左到右)Google 工作期间,伊利亚又开始相信一件更宏大的事情:超越人类的超级智能,已经近在眼前。一方面,是因为他发现深度学习的游戏规则变了。此前,研究深度学习的只有一小撮人,资源捉襟见肘。2009 年时,辛顿曾短暂地在微软做过一个深度学习项目,连一张价值 1 万美金的显卡都申请不下来,气得他一顿阴阳怪气,「微软显然是家资金短缺的软件销售商。」然而,自 AlexNet 之后,无数聪明头脑与热钱涌入,未来被加速了。另一方面,早在学生时期,伊利亚就坚信 Scaling laws。「第六感」告诉他,超级智能并没那么复杂,只需要更多的数据与算力。并且,伊利亚又一次证明了自己是对的。2014 年的 NIPS 学术会议上,伊利亚公布了他最新的研究成果:Seq2Seq(序列到序列)模型。Transformer 诞生之前,它曾是 Google 机器翻译的灵魂。只需要足够的数据,Seq2Seq 模型就能表现得很好。伊利亚在路演中提到,一个弱模型永远不可能有好的表现「真正的结论是,如果你有一个非常大的数据集和非常大的神经网络,那么成功是有保证的。」 伊利亚在 NIPS 2014科学家与狂想家这两张面孔,在伊利亚身上迸发了神奇的化学反应。随着伊利亚对超级智能愈发笃信,他对安全问题的重视也与日俱增。没过多久,伊利亚便遇见了知己。理想主义的天花板2015 年,伊利亚收到投资机构 Y Combinator 掌门人萨姆·奥特曼的邀请,前往硅谷的瑰丽酒店参与一场秘密聚会。然而,奥特曼并非这场秘密聚会的主角。马斯克突然现身,告诉现场所有人,他打算成立一间 AI 实验室。瑰丽酒店促使马斯克这么做的导火索,是数周前的 44 岁生日派对。当时,马斯克邀请了 Google CEO 拉里·佩奇等一众好友,去度假村玩了 3 天。晚饭过后,马斯克与佩奇围绕 AI 展开了激烈争吵。马斯克认为 AI 会毁灭人类,而佩奇则不以为然,嘲讽他是个「物种主义者」,对硅基生命有偏见。从那之后,马斯克就不怎么和佩奇说话了。在秘密聚会的现场,马斯克等人提到,很少有科学家会考虑自己研究的长期后果。如果任由 Google 这样的大型企业垄断 AI 技术,很可能会在无意间造成巨大伤害。因此,他们提出了一种全新的形式:成立一间不受任何人控制、非盈利的实验室。他们同样会去追逐 AGI(通用人工智能)的圣杯,但不以盈利为导向,且放弃大多数研究成果,转而面向社会公开(open source)。马斯克与奥特曼认为,如果所有人都能获得强大的 AI,那么「恶意 AI」的威胁将大大降低。 「我能想到最好的事情,就是让人类以更安全的方式构建真正的 AI。」另一位组织者布罗克曼(Greg Brockman)说道。伊利亚被这个浪漫的想法打动了。他为此放弃了年薪 200 万美元的诱惑,毅然加入 OpenAI。成立的头 15 个月,OpenAI 并没有设立具体的战略方向。Google 科学家达里奥·阿莫迪(Dario Amodei),当时曾拜访过 OpenAI,询问在研究什么,OpenAI 的管理层竟一时答不上来,「我们现在的目标...是做点好事。 几个月后,阿莫迪跳槽去了 OpenAI,一起做点好事。 达里奥·阿莫迪2017 年 3 月,奥特曼等领导层意识到该更专注了。然而,在规划 AGI 路线图的时候,他们却发现了一个严重的问题:算力跟不上了。大模型所需要的算力,每隔 3-4 个月就会翻一倍;非盈利机构的形式,显然不足以支撑。当时,马斯克提出了一个提案:OpenAI 并入特斯拉,由他完全掌管。然而,马斯克低估了奥特曼的野心。 奥特曼一直在寻找重大的科学突破,希望凭此打造出一家价值万亿美金的企业。过去,YC 最为人熟知的投资案例,是 Airbnb。随着奥特曼掌权之后,YC 开始挤破脑袋寻找各种研究核聚变、人工智能、量子计算的公司。 a16z 创始人、风险投资家马克·安德森曾表示,「在奥特曼的领导下,YC的野心水平提高了10倍。」 2018 年 2 月,奥特曼将 OpenAI 管理层都拉拢到了自己的阵营。马斯克从此离开了团队,不再和奥特曼说话,并取消了对 OpenAI 的后续资助。 奥特曼与马斯克两个月后,奥特曼发布了 OpenAI 的公司章程。在不起眼的角落,他对公司愿景的表述,做了些小小的修改,「我们预计需要调动大量资源来完成使命。」 至此,曾经那个高度理想主义的 OpenAI,渐渐踏入了另一条河流。第一次分裂2019 年 2 月,OpenAI 对外宣告了 GPT-2,却没有第一时间对外开源。而后来的 GPT-3,更彻底走向了闭源,OpenAI 变成了 CloseAI。一个月后,OpenAI 又改变了「非盈利」的性质,成立了一个营利部门,并接受了微软 10 亿美金的投资。突然的 180 度大转向,使得 OpenAI 内部开始分裂成两个对立的派别: 以达里奥·阿莫迪、伊利亚为代表的安全主义,认为必须先确保 AI 不会威胁人类,再公开发布产品;而以奥特曼、布罗克曼为代表的加速主义,则希望加速 AI 的普及,从而让更多人使用AI造福世界。 从中可以看出,两个派别的行事方式完全相反: 安全主义主张先验证安全,再发布;而加速主义主张先扩大市场,再根据测试结果与反馈进行调整。 前些日子发布的 GPT-4o,就是典型的加速主义做派。发布会之前,OpenAI 匿名发布了性能强大的模型「im-also-a-good-gpt2-chatbot」,引起了开发者社区的广泛猜测与讨论。 事后证明,这模型就是 GPT-4o 的前身;而奥特曼故弄玄虚的目的,正是想让吃瓜群众帮他做测试。 随着分歧加剧,2021 年,安全主义者、曾想一起做点好事的达里奥·阿莫迪,引发了 OpenAI 的第一次分裂。他认为,OpenAI 正从「勇者」变成「恶龙」,越来越商业化,忽视了安全主义。 于是,他带领着一批核心员工出走,成立了另一家 AI 公司 Anthropic。阿莫迪将 Anthropic 定位成一家公益公司,这将使他们能够同时追求商业利润和社会责任。如今,Anthropic 已成为 OpenAI 最大的竞争对手。 达里奥·阿莫迪的离职,在 OpenAI 内部造成了巨大动荡,但奥特曼仍试着努力维持两个派别的平衡。直到 ChatGPT 的发布。一种理想主义的失败ChatGPT 是个临时项目。 当时,OpenAI 正全力开发 GPT-4。然而,有传闻称,阿莫迪的 Anthropic 正在开发聊天机器人。于是,奥特曼临时指派员工,给现有的 GPT-3.5 也打造一个聊天界面。奥特曼将 ChatGPT 称为「低调的研究预览」,可以帮助 OpenAI 收集人类与 AI 交互的数据。 当时,OpenAI 内部员工搞了个赌注池,猜 1 周内能获得多少用户,最大胆的赌注是 10 万人。 最终成绩是 100 万。 2 个月后,这个「低调的研究预览」,成为了历史上最快突破 1 亿用户的应用程序。 两个派别的平衡被彻底打破了。 一位内部员工对媒体说道,「ChatGPT 诞生后,OpenAI 有了获取收入的明确途径。你不能再用『理想主义的实验室』标榜自己了,现在就有顾客希望得到服务。」 从学生时代开始,伊利亚就相信超级智能并不遥远。随着 ChatGPT 引发行业追逐,他对安全的焦虑变重了,与其他加速主义管理层的矛盾也日趋严重。 有人觉得他越来越神神叨叨,也有人觉得他开始更像一位精神领袖了。 2022 年 OpenAI 的节日派对上,伊利亚开始带着所有员工高喊,「feel the AGI(感受 AGI)」。在其他许多不同场合,他也反复说过这句话——仿佛超级智能已经近在咫尺。 去年宫斗之前,伊利亚曾告诉一位记者,ChatGPT 可能是有意识的,世界需要认识到这项技术真正的力量。 这位媒体同志不止见过伊利亚一次,对他的印象并不算好:每次见面,他都会说很多极其疯狂的话。2023 年 7 月,伊利亚启动了「超级对齐」项目,发起了对加速主义的最后反抗。 在 AI 语境中,对齐(Alignment)并非某种黑话,而是一个专业术语,指让前沿的 AI 系统与人类的意图、价值观对齐。然而,伊利亚认为,超级智能的智慧程度将远超人类,人类智慧已经不足以拿来当衡量的标准。 他提到,当年的 AlphaGo 是个典型的例子。 它与李世石第二盘棋的第 37 手,下在了一个所有人都没想到的位置。当时,连中国围棋国手芈昱廷都在解说台上惊呼,「这是什么鬼,没摆错吗?」事后看来,这手棋恰恰是奠定 AlphaGo 胜局的关键。 连 AlphaGo 都如此捉摸不透,更遑论即将到来的超级智能。 因此,伊利亚拉上同事简·雷克,成立了「超级对齐」团队。工作内容很简单:在 4 年之内打造一个强大的 AI 系统,让它代替人类智慧负责对齐工作,而 OpenAI 将为这个项目提供 20% 的算力。 只可惜,奥特曼并没有给安全主义反抗的机会,没有兑现 20% 算力的承诺。 去年年底,伊利亚射出的最后一颗子弹,也未能击中要害。当伊利亚未能成功「刺杀国王」,他与 OpenAI 的结局就已经注定了。 OpenAI曾经的管理层尾声GPT-4o 发布之后,奥特曼重申了修改后的公司愿景:OpenAI 使命的一部分,是将非常强大的AI工具免费(或以优惠的价格)提供给人们。他在博客中写道,「我们是一家企业,很多东西需要收费,这将有助于我们向数十亿人(希望如此)提供免费、出色的 AI 服务。」2016 年时,《纽约客》曾发布了一篇关于奥特曼的特稿。 当时,奥特曼最主要的身份,还是 YC 的掌门人。实际采访时,《纽约客》记者在奥特曼身上感受到了一种侵略性。 「他正在硅谷内迅速建立起一种新的经济,这种经济似乎旨在取代原本的硅谷。」 如今,随着 OpenAI 彻底告别伊利亚时代,奥特曼将继续完成当年未竟的野心。微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章