「Ilya究竟看到了什么?」泄密被OpenAI解雇的前员工长文爆料:2030年超级人工智能将至
Ilya看到什么可能不重要了,但如何发展出安全的AI,将影响每个人的未来。
文|陈思达 王奕昕
编辑|李然
来源|智能涌现(ID:AIEmergence)
封面来源|视觉中国 公开资料
OpenAI前员工Leopold Aschenbrenner,之前在超级对齐(Superalignment)部门,可是能和Ilya大佬共事的。
图源:The Information
不久,世界就会苏醒过来。目前,可能全世界有几百个人能够亲身感受到正在发生什么,其中大多数人都在旧金山的各家人工智能实验室里。无论命运有什么特殊的力量,我都发现自己属于其中一员。几年前,这些人被嘲笑为疯子——但他们相信趋势,这让他们能够正确预测过去几年的人工智能进步。 这些人对未来几年的预测是否也是正确的,还有待观察。但这些我见过的最聪明的人正在全力推进AI的发展。也许他们会成为历史上一个奇怪的注脚,或者他们会像西拉德、奥本海默和泰勒一样载入史册。如果他们对未来的预测接近准确的话,那么我们将迎来一段疯狂的旅程。 接下来让我告诉你,我们看到了什么。
来源:领英
或许正是这些履历给的底气,让他用略带怜悯的口气预言——AI即将带来的,绝不仅是多数专家认为的“另一场互联网规模的技术变革”。
算力(compute) 算法效率(algorithm efficiencies) 额外释放的潜力(原文unhobbling gains,指通过基于人类反馈强化学习 [RLHF]、思考链[CoT]、工具和脚手架[Scaffolding]等方法微调带来的的模型能力)
算力
算法效率
来源:文章
GPT-4在发布时的API价格,大概GPT-3发布时相同,尽管性能绝对优秀。 自GPT-4一年前发布以来,随着GPT-4o的发布,GPT-4 级模型的 OpenAI 价格又下降了 6 倍/4 倍(输入/输出)。 最近发布的Gemini 1.5 Flash,提供介于“GPT-3.75 级”和 GPT-4 级之间的性能,同时费用比原始 GPT-4 低 85 倍/57 倍(输入/输出)
Unhobbling解锁
来源:文章
总之,就OOM的总和来看,近似于GPT-2到GPT-4程度的跃迁,将再次出现。即,在2027年前,AGI将成功实现。
智能爆炸,AGI之后的超级人工智能
可能瓶颈
有限的计算能力:人工智能研究需要基于实验来获得相关经验,所以实验的有限计算资源将成为瓶颈。但即使考虑到这一点,即使增速达不到1,000,000倍,基于此前海量的学习,“自动化AI研究人员”也能将计算效率提高至少 10 倍。即使计算量相同的情况下,一些人类研究人员和工程师都能比同行产出高出10倍的进步——这应该更适用于“自动化AI研究人员”。
互补性/长尾效应:从经济学角度看,即使能自动化70%的东西,但很快剩下的30%就会成为瓶颈,越到后面算法进展速度的整体增长越慢,整体进展越小。但作者认为,这只会让成果推迟几年。也许2026/27年模型的速度是原型自动化得AI研究人员,还需要一两年的时间优化才能实现完全自动化。但不管怎样,到2028 年,最终仍将获得10倍的增长。 算法进步的固有限制:虽然肯定会有上限,但如果在过去十年中获得了5个 OOM,应该期望至少再取得十年的进步。更直接地说,目前的架构和训练算法仍然非常初级,似乎应该可以采用更有效的方案。 找到新想法越来越难,因此自动化AI研究人员只会维持,而不是加速目前的进展速度:有人说随着我们攻克简单的成果,更难的想法也越来越难找到。可能有人看到,今天只需要几百名实验室的顶尖研究人员才能维持0.5个OOM/年的增长,未来将需要越来越多的努力来继续维持这一进展。但单个人研究工作量增加的幅度——一百万倍——远远超过维持进步所必需的研究工作量。 新的想法越来越难找到,回报递减,所以智能爆炸增长不现实:无论如何,从数百个AI研究人员到数百万个AI研究人员的一次性跃迁的规模,可能会克服至少一定数量的算法进步的边际收益递减,尽管它当然不能无限地自我维持。
超级智能有多强大就有多危险
它们在数量上超越人类。在十年末拥有数亿个GPU设备的情况下,将能够运行数十亿个这样的人工智能系统——它们将比人类思考速度快上数个数量级,能够迅速掌握任何领域,编写数万亿行代码,阅读所有有史以来撰写的每一篇科学领域的研究论文(它们将是完全跨学科的!),仅在几周内,就能获得数十亿人类等价年份的新创新经验。 思考质量也将超越人类。大规模强化学习运行已能够产生超越人类理解的全新和创意行为——对于一个人类可能被困在几十年的极为困难的科学和技术问题,对它们来说会显得如此显而易见。就好比,人类将像困在牛顿物理学中的高中生,而AI正在探索量子力学。
人工智能能力的爆炸式增长:实现任何和所有认知工作的自动化。 解决机器人问题:超级智能将不会长时间停留在纯认知层面。工厂将从由人类管理,转变为AI指导下的人类体力劳动,最终将完全由机器人群体运行。 大幅加快科技进步:十亿个超级智能,能够在数年内做完人类研究人员在下个世纪所做的研发工作。 工业和经济的迅猛发展:这将是增长机制的根本转变,更像是工业革命从非常缓慢的增长,到每年几个百分点的历史阶梯式变化。
随着文明从狩猎到农业,到科学和商业的蓬勃发展,再到工业,全球经济增长的步伐加快了。
提供决定性和压倒性的军事优势:使是早期的认知超级智能就已足够强大,军事革命将随之而来,全新武器可能出现。 能够推翻美国政府:控制超级智能的人很可能拥有足够的力量,从超级智能出现以前的势力手中夺取控制权。
图片说明了超级人工智能出现会在不同方面引爆增长
作者警告,智能爆炸和后超级智能时期将,是人类历史上最动荡、最紧张、最危险和最疯狂的时期之一。而到本世纪末,我们都会身处其中。
达到AGI需要投入的成本
训练算力
预计到2030年,最大的训练集群可能需要100GW的电力,相当于美国当前电力生产的20%以上。 AI训练计算能力每年增长约0.5个数量级(OOMs)。
2022年:GPT-4集群约需10000个H100等效计算单元,耗资约5亿美元,需10MW电力。 2024年:需约10万个H100等效计算单元,耗资数十亿美元,需100MW电力。 2026年:需约100万个H100等效计算单元,耗资数百亿美元,需1GW电力,相当于胡佛水坝或大型核反应堆的规模。 2028年:需约1000万个H100等效计算单元,耗资数百亿美元,需10GW电力,相当于美国一个中等州的用电量。 2030年:需约一亿个H100等效计算单元,耗资超过1万亿美元,需100GW电力,相当于美国当前电力生产的20%以上。
投资规模
预计2024年AI投资将达到1000亿至2000亿美元。 到2026年,总投资可能达到5000亿美元。 到2028年,总投资可能达到2万亿美元。 到2030年,总投资可能达到8万亿美元。
投资可行性
AI产品的收入增长迅速,预计到2026年,像谷歌或微软这样的公司年收入可能达到1000亿美元。 例如,微软Office的3.5亿付费用户中,有三分之一可能愿意每月支付100美元购买AI附加服务。
曼哈顿计划和阿波罗计划在其高峰时期达到了GDP的0.4%,相当于今天的约1000亿美元。 1996年至2001年间,电信业投资近1万亿美元。 1841年至1850年间,英国铁路投资总额相当于当时GDP的40%,相当于今天的11万亿美元。 绿色转型也花费了数万亿美元。
电力(Power)
预计到2028年,AI计算集群需要10GW电力。 2030年需要100GW电力,相当于当前美国电力生产的20%。
美国拥有丰富的天然气资源,利用天然气可以快速满足AI计算集群的电力需求。 建造新电厂需要巨额资本支出,但在2-3年内是可行的。
芯片产能
目前,全球AI芯片生产占台积电现有的先进封装产能的比例较小,增长空间巨大。 台积电新建一个Gigafab工厂的成本约为200亿美元,年产量可达10万个晶圆。
包括芯片封装和高带宽内存(HBM)在内的供应链是当前AI GPU扩展的主要瓶颈。
超级对齐问题的核心
达到AGI之后,一切可能会飞快加速
对齐相对超人的模型(Aligning Somewhat-Superhuman Models)
评估比生成更容易(Evaluation Is Easier Than Generation):评估输出比生成输出要容易。比如,评估一篇论文是否优质,比自己写一篇论文要简单。 可扩展监督(Scalable Oversight):使用AI助手帮助人类监督其他AI系统,人类和AI团队可以比单独的人类更好地进行监督。 泛化(Generalization):研究AI系统在人类监督的简单问题上的表现如何泛化到复杂问题上。 可解释性(Interpretability):通过理解AI系统的内部推理来验证和信任这些系统的对齐性。
自动化对齐研究(Automating Alignment Research)
对齐难度的等级参见上图。图源:AI ALIGNMENT FORUM 文章 Could We Automate AI Alignment Research?
超级防御(Superdefense)
虽然看起来困难重重,但作者对超对齐问题的技术可行性持乐观态度,认为在深度学习领域有很多低垂的果实可以帮助我们解决这些问题。然而,达到AGI之后的高风险和快速变化使得这一过程变得非常紧张,需要极高的管理能力和科学决策能力。
超级人工智能事关国家安全。 我们正在迅速制造比最聪明的人类更聪明的机器。这不是一次看起来很酷的硅谷热潮;这不是一个由编写无辜开源软件包的程序员组成的毫无门槛的社区;这不是乐趣和游戏。超级智能的发展将是疯狂的;它将是人类有史以来建造的最强大的武器。对于我们所有参与其中的人来说,这将是我们做过的最重要的事情。 我们不能搞砸了。认识到超级人工智能的力量也意味着认识到它的危险——无论是因为人类使用了我们相互毁灭带来的破坏性力量,还是因为我们正在召唤的外星物种是我们还不能完全控制的东西。 想让超级人工智能变得可控,即兴发挥是不能解决问题的。驾驭这些危险将需要优秀的人带着前所未有的严肃来到谈判桌上。
36氪旗下AI公众号
真诚推荐你关注
来个“分享、点赞、在看”👇
微信扫码关注该文公众号作者