伊尔亚·苏茨克维,亲手“毁掉”OpenAI的首席科学家
最终山姆·奥特曼(Sam Altman)和 格雷格·布罗克曼(Greg Brockman),从旧金山教会区的先锋大厦走出,扬长而去了。
这个眼下硅谷的心脏地带从昨天开始围拢了很多目光,一些开发者接近这座建筑,希望能见到奥特曼,这位年轻而权威的AI布道者昨天刚措手不及的被自己的董事会踢出局。
直到奥特曼拿着访客证回到OpenAI总部,OpenAI首席科学家伊尔亚·苏茨克维(Ilya Sutskever)的推特仍然停留在10月7日。
六人的董事会阵营里,三人来自OpenAI,其中两位在一天内双双出走,这件事的背后推动者在第一时间指向了留下的那一位,也就是伊尔亚。
在仅有的几次“露面”中,是伊尔亚代表董事会通知了奥特曼关于罢免的决定,也是他进一步澄清了奥特曼哪怕回归OpenAI也不会继续担任CEO的事实。在一些零碎的报道里,伊尔亚跟他在OpenAI的同事提起,把奥特曼踢出局是OpenAI能够沿着正确道路做AI研究的“唯一路径”。
但这场混乱最终颠覆了OpenAI。
一场最终“失败”了的谈判——至少外界看起来是这样——之后,奥特曼离开,没有接受任何媒体的采访,然后戏剧性地加入了微软。微软CEO纳德拉随后在推特上官宣了这位前OpenAI CEO的加入——虽然十几个小时前,他才刚代表微软公开对经历动乱后以原CTO米拉·穆拉蒂(Mira Murati)替代奥特曼成为CEO的OpenAI。
这中间,X上发起了一场OpenAI员工的自发抗议,抗议的标语是“OpenAI is nothing with its people(没有具体的人,OpenAI什么都不是)”。700多位OpenAI员工里,有超过95%的人开始抗议董事会看起来卸磨杀驴的举动,并且要求奥特曼回归。这其中甚至包括刚被推上CEO位置却倒戈的米拉。
这场OpenAI与它的创始人之间真正的告别看起来过于草台班子。而章程里写着首要任务是“为人类负责”的OpenAI,看起来真正的主导者是奥特曼。
据《The information》报道,在罢免当天的全体会议上,有人向伊尔亚寻求确认,这算不算一次政变,伊尔亚没有否认,但也坚持自己只是做了正确的事。
他并没有料到OpenAI会走向一场彻底的分崩离析。沉默的伊尔亚最终在时隔近48天后发了一条新的推特,表达了对整件事的失望和后悔,以及自己将会为OpenAI的重新团结做任何事的愿望。但这听上去很绝望。
奥特曼在这条推特回复了三颗“爱心”,似乎在说这件事该翻篇了。评论里则是马斯克在催促——到底发生了什么事?
裂缝在ChatGPT里
今年2月,伊利亚在推特上说自己看到了“当今最大的神经网络可能已拥有轻微的意识”,然后被指责为一种不高明的炒作。
如果说OpenAI和GPT-4站在人类与AI互相入侵的隘口,领衔着这场交锋,那眼下世界上没有任何一个人比作为OpenAI技术领袖的伊利亚,更有机会察觉到AI失控的边界。
这让这个看起来身高有1米9却总是坐姿拘谨的加拿大人,在外人看来很多时候显得过于神经紧张。
这可能也是奥特曼和马斯克第一次见到伊利亚时的感觉。
2015年帕洛阿尔托一场小型晚宴上,奥特曼与马斯克决定创办一个非营利性的AI研究实验室,他们将其命名为OpenAI。伊尔亚和马斯克、奥特曼坐在同一张餐桌上。在那之前,马斯克艰难的把伊利亚从谷歌挖出来,担任OpenAI的首席科学家,甚至为此不惜和谷歌DeepMind的首席执行官哈萨比斯决裂。
对于马斯克和奥特曼来说这并不是个艰难决定,伊尔亚也没有辜负OpenAI,他几乎主导并推动了之后的一切。
伊利亚加入OpenAI后领导了对GPT的研发,后来发展成了GPT-2、GPT-3和ChatGPT。有人认为,格雷格凭借其在软件系统开发方面的专业背景,在产品策略制定中扮演了关键角色。而奥特曼则凭借其丰富的行业经验和广泛的业界联系来领导OpenAI。而在这背后,伊利亚则是AI技术层面的核心研发者,他是OpenAI整条GPT路线的缔造者,直到ChatGPT。
但从ChatGPT开始,伊利亚与奥特曼在OpenAI的路线选择上的裂缝就已经出现了。
《大西洋月刊》采访了OpenAI的10名现任和前任员工,然后还原了一个事实:ChatGPT在2022年11月的上线,是一个带有些防御性意味的仓促决定。
去年秋天OpenAI内部传出Anthropic——OpenAI的创始团队出走成立的新AI公司——正在开发一款AI聊天产品,并且研发节奏很快。到了 11 月,OpenAI的高层告知员工,他们需要在几周内推出一个聊天机器人,也就是后来一炮而红的,带有聊天界面的GPT-3.5。
那时原本OpenAI的研发人员正在GPT-4的研发中投入大量精力,而ChatGPT激增的流量变成服务器和流量监控工具的一次次崩溃,随之而来的安全风险——比如将ChatGPT用于行骗——变成了内部巨大的噪音。OpenAI内部的安全和和对齐团队希望ChatGPT的进展能够放慢一点,但事后看来这并没有发生。ChatGPT在2月上线了能力加强的付费版本,在3月推出了插件(Plugin)功能,然后在6月做了一次大幅降价的同时,增加了对开发者非常重要的对外部工具的调用能力。
在这期间,GPT-4也发布了。
你可以看到OpenAI董事会中,OpenAI内部三人之间清晰的隔阂。主导了公司快速商业化的奥特曼与在产品化上有着绝对影响力的格雷格站在一起,伊利亚则站在另一侧。
站在商业角度,这是一场关于商业化与技术理想主义之间的对立。但站在伊利亚的立场上,这或许是一场“有效加速主义”和“超级对齐”之间的权衡。
“有效加速主义”是硅谷发展出的一种独特哲学,意思是说当人们掌握一个颠覆性的产品或者技术,最好的办法是尽快把它拿到众人面前,哪怕这个产品或技术还不完美,真实的反馈比在象牙塔里夯实基础更有价值,而理念和技术创新在长期来看总是会对人类有益。
相比之下,超级对齐的观点更加保守,其含义是确保当未来人类对人工智能系统的评估把握超过了那个可控的临界点后,人类仍然有可以有效地监督人工智能系统的办法。
通俗点说,确保AI永远受到人的控制。
硅谷追求冒险和变化,不欢迎瞻前顾后的完美主义者,但前提是这种不完美不会对全体人类带来风险——比如人类最终被AI接管的最坏可能性。或许在此之前,“有效加速主义”的所有案例里都没有如此接近过这个失控的临界。
在6月ChatGPT的那次有明确商业化意图的大更新后不久,伊利亚突然宣布加入公司的超级对齐部门,与简·莱克一起领导这个将在未来面对更深层次人工智能安全挑战的核心团队。但他们争取到的筹码看起来并不多,只有未来四年内,OpenAI 20%的算力。
有趣的地方在于,当时OpenAI在官宣伊尔亚加入超级对齐部门的时候公布了9位部门成员,而当昨天奥特曼离开公司,其中的8位没有在X上对奥特曼的告别做出回应,沉默的除了伊尔亚,也包括简·莱克。
放弃GPT-5
伊利亚的生活几乎不离开旧金山。
伊利亚1986年出生在前苏联西部的下诺夫哥罗德,他在这个伊利亚在这个伏尔加河与奥卡河的交汇处生活了五年,然后在苏联解体时随全家搬去了耶路撒冷。再次离开以色列搬去加拿大的时候,伊利亚26岁。
伊利亚在多伦多大学继续学业,在2007年拿到了数学理学硕士学位后,博士生涯开始转向计算机科学。
在一个动荡、寒冷的青年时代后,现在伊利亚过着非常简单的生活。“我去上班,然后回家,几乎不做什么别的事情。一个人能参加的社交活动有很多,但我不去。”伊利亚在近日面对《MIT科技评论》的采访时说。
下诺夫哥罗德 图源:来自网络
伊利亚和奥特曼像是OpenAI的两面。
奥特曼推着AI靠近真实世界,他的社交媒体里是一场场全球巡演的盛况,大量对当下世界的评论以及与各国官员的合影。而伊利亚的推特里则往往缺少“人味”,他思考着他在意的事情,然后扔掉其他一切。
在Reddit平台有一条匿名帖子以OpenAI员工的口吻爆料称,长久以来,OpenAI的工程师们对于新的技术在安全审查并不充分时候就推向市场有所担忧。
“山姆似乎越来越注重名利,而不是坚持OpenAI作为一个负责任的非营利组织的原则。他单方面做出的商业决定以盈利为目的,与我们的使命背道而驰。当他提出GPT商店和收益分享时,这就越界了。”
一条被认为是引发这场蝴蝶效应的线索时,就在奥特曼被解雇前一天,他在美国旧金山举行的亚太经合组织峰会(APEC)上直言不讳GPT仍然有颠覆性的能力没有推出,并强调AI在短期内不需要严格监管。
奥特曼屡次重申OpenAI对AGI的追求,但也强调这需要持续不断的投入,而这一切都要基于商业化上的巨大成功。
但伊利亚个人所认同的发展方向已经与之相背,他更希望回归OpenAI创立的起点。
半个月前,伊利亚在旧金山某条街道上一座不起眼的建筑里坐下来,平静地陈述了他在花了六年把GPT-1推动到GPT-4之后,对GPT-5的放弃。
从伊利亚自己在2月对于“AI具有意识”的表达,到几个月后谷歌的一位程序员因认为LaMDA具有意识而被停职,“AI超越人类“的故事正在从科幻变成偶有发生的真实奇观。相比AI在能力上的更进一步,伊利亚对AI最终在身位上领先人类的担忧是压倒性的。他的研究重心已经不再是下一代GPT或图像生成模型 DALL-E。
“第一批AGI的信念将会极为重要,所以以正确的方式来构建它们就显得非常要紧。如果不这么做,自然选择与对进化的本能渴望将会占领AGI,让它视自己的生存为做重要的事。”
伊利亚认为过于激烈的商业竞争最终会对AGI的研究造成伤害。如果抱着一种军备竞赛的心态,试图抢在其他竞争者之前最先构建出AGI,“这就意味着缺少宽裕的时间来确保构建出的AGI已经得到了人类足够深入的了解和照顾”,伊利亚在一次与电影制作人Tonje Hessen Schei的对话中说到。
从去年开始,他在OpenAI内部越来越像一个精神领袖,《大西洋月刊》透露他曾委托一位旧金山本地艺术家创作一个木制雕像,以象征那些“未对齐”的AI。然后他将其点燃,作为一种对 OpenAI 创立初衷的强调。与此同时,伊利亚呼吁同事们要一直相信AGI的愿景,他甚至为此在Slack上专门做了一个AGI的表情来告诉OpenAI的所有人不要偏离公司研究的初心。
动物与高速公路
伊利亚对超级对齐这个概念的强调,以及在相信AGI将很快到来的同时,对AI和人类两侧同时的不信任感,和杰弗里·辛顿(Geoffrey Hinton)的观念非常相似,后者正是他在多伦多大学转向计算机科学所跟随的博士生导师。
跟随杰弗里·辛顿的那段时期对于伊利亚非常重要,他完成了从数学到AI领域的研究方向转变,并且这也将他带到了硅谷。
在多伦多大学期间,伊利亚与辛顿的另一位学生亚历克斯·克里泽夫斯基(Alex Krizhevsky)开发的卷积神经网络AlexNet在当年的ImageNet挑战赛中夺了冠,并且精确度是第二名的两倍。AlexNet的成功证明了大型神经网络在面对大规模数据时的潜力,为整个深度学习领域的发展奠定了基础,与此同时,AlexNet证明了GPU在大型神经网络训练中的高效性,可以说当下AI领域对于GPU的看重,以及OpenAI在技术层面的遥远起点,都是拜AlexNet所赐。
然后谷歌用4400万美元收购了辛顿与两位学生建立的三人公司DNNresearch,在这笔更像是一笔对人才的买卖完成后,伊利亚进入谷歌,成为谷歌大脑的研究科学家。
在出自谷歌的那篇关于AlphaGO的影响深远的论文中,伊利亚也是共同作者之一。他在采访中回忆对AlphaGO的观察,称已经从一些痕迹中看到了超级智能的例子——虽然“非常狭隘的”——按他的话说。
AlphaGO与李世石交手的第二场比赛中,第37手棋超越了所有人类棋手的理解范围,但最终这一手棋指向了胜利。“想象一下,如果这种洞察力可以使用到各种地方,会怎么样?”伊利亚在一次采访中说。
伊利亚在2015年离开了谷歌,之后的故事都关于OpenAI了。
同样因DNNresearch的收购而进入谷歌的辛顿,则是十年后的今年5月突然选择了离开了,加入了一家机器人公司。他声称这是为了能自由谈论人工智能的危险。
在ChatGPT问世后,辛顿多次在公开场合表现了对AI的担忧。在一次分享中,辛顿提出了一个看起来非常致命的问题,“我并不知道之前有任何案例,关于低智能物种能够对高智能物种实现完全的掌控”。他担心AI会在海量数据中学习到意想不到的行为时,最终威胁到人类——比如欺骗,伪造的图片,和漫天的假消息。
这与伊利亚的比喻有些相似,"我们热爱我们身边的动物,但当人类决定在两座城市之间建一条高速公路时,我们不会征求动物们的意见。我们会直接开始建造,这完全出于我们自己的目的。”AGI的危险并一定是它会伤害人类,而或许仅仅是因为它太强大了。
辛顿向媒体透露,他和伊利亚最近一直保持着密切的联系,或许这影响了伊利亚对OpenAI公司发展方向的判断,但后者并没有作出回应。但几乎一夜之间,OpenAI变成一个空壳,GPT-4还在,剩下一些专利,却不剩几个员工,未来毫无成长性。
伊利亚人生中最重要的一跃是AlexNet,而创办ImageNet挑战赛的人是李飞飞。李飞飞昨天发了一条推特:“人类永远会是所有事物的中心,哪怕这件事是关于AI的。”
在那番充满懊悔的表达后,伊利亚并没有宣布自己下一步的动向。无论如何,这真是漫长的一天。
微信扫码关注该文公众号作者