为何不能暂停 AI 研发?杨立昆、吴恩达对话实录
吴(吴恩达):在过去的 10、20、30 年间,我们见证了深度学习惊艳的效果。在近 1-2 年,人工智能系统进步的趋势甚至更快了,出现了 ChatGPT、Stable Diffusion、DALL·E 等系统。因此,一些人开始担心人工智能的公平性,以及它对社会经济、失业率的影响。还有一些人甚至担心通用人工智能(AGI)会产生邪恶的机器人。这些对现在和未来的担忧是真实存在的。为此,未来生命研究所(FLI)提出了一个暂停训练比 GPT-4 更强大的人工智能模型的公开信,Yoshua Bengio、Elon Musk 等名人都联名签署了这份提案。您能否分享一下自己的看法?
LeCun(杨立昆):我的第一反应是——延缓研究和发展是一种腐朽倒退的思想。我们不应放缓知识和科学的进步。就产品而言,我支持监管产品,但我不认为监管研究和开发有什么意义,这反而会减少我们可以用来让技术更好、更安全的知识。
吴:如今的人工智能系统确实面临着为人们带来损害的风险,例如:偏见、公平性、过于集中的能力。这些都是客观存在的问题。然而,AI 也会创造巨大的价值!在过去十年、甚至数月间,大量的人工智能创意被用于教育、医疗等行业。即使我们如今有 GPT-4 这样好的模型,构建一个更好的模型会帮助这些应用更好的助人。中止这样的进步有害于创造这些对人类大有助益的工具。
LeCun:是的。我认为签署这封公开信的人可能有以下几个动机。极端地说,一些人会担心在某一时刻实现了 AGI,然后在短时间内消灭了人类。我认为很少有人真的相信这种情况,或者相信这是一个无法阻止的威胁。
还有一些人的思考较为合理,他们认为需要应对 AI 的潜在危害。我赞同这一点。AI 还存在很多问题,比如让 AI 系统可控,提供真实、无害的信息。但是这似乎有些缺乏想象力了,未来的人工智能系统不会按照「自回归」的方式设计。我们会产生一些新的想法,使系统更加可控。因此问题就变成了如何为系统设计与人类价值观、政策一致的目标。「人类有足够的智慧设计超级智能系统,而没有足够智慧设计好的目标的」概率是很低的。目前这些产品由少数公司在利润的驱使下生产,这些公司将会获得怎样的权力和影响力?会对人们的经济产生怎样的影响?是否存在内在的风险?我认为可以有适当的产品监管,但不应停止研发。
吴:近年来,AI 取得了巨大的进步,这十分有趣。但是现在的模型离完美还差得很远,它们仍然会造成混乱。目前人们对模型的指令有了巨大的进步,许多公司也转向了这一方向。着力「对人工智能的安全性及性能调整并对齐人工智能与人类意图」比全面暂停研发更加具有建设性。
我和你都反对对人工智能的炒作。在深度学习刚起步的时候,很多人对它具有不切实际的期望。坦白地说,我对自动驾驶也过于乐观了。我们现在都没有实现 L5 的自动驾驶。如今,「AI 末日论」认为人工智能可以逃脱并超越一切也是另一种炒作,这种炒作也是有害的。
LeCun:我赞同。如今,有了 ChatGPT、GPT-4 这样的模型,人们玩得不亦乐乎。这造成了一种印象,让我们以为已经距离具有人类水平的智能十分接近了。这是因为人类是以语言为导向的。我们认为能流利地给出答案就是智能的。但事实并非如此,这些系统完全通过文本训练,没有任何真实的经验,对于现实的理解十分肤浅。即使是 GPT-4 也很少利用图像训练。这也导致了它们有时会「一本正经地胡说八道」。
我们离人类水平的智能还很远,这并非炒作。人类的智能实际上是十分专门化的。毫无疑问,我们在未来的几十年间将拥有在人类具有智能的领域与人类达到同等水平或超越人类智能的系统。但并不会马上就实现。
直到我们设计出有机会达到人类智能的系统的蓝图,我们再讨论如何正确地保证它们是安全的。否则都为时过早。如果车都不存在,如何设计安全带?如果都没有发明飞机,怎么设计安全的喷气式引擎?这种对未来的恐慌是误导。
人工智能离人类水平的智能还很远,否则我们就不会还没有 L5 级自动驾驶了。而青年人学习 20 小时就会开车。即使我们有能够流利地给出语言答案的系统,但是这需要用数万亿单词来训练模型。如果一个人每天读 8 小时单词,都需要 22,000 年才能读完这些单词。这与我们观察到的人类智能大相径庭。我们认为很难的下象棋、写作文等事情对于机器又十分简单。而擦桌子、洗碗这样的事对于机器来说又很困难。
吴:是的。我们距离 AGI 还很远。这个公开信中所说的「AI 逃逸」等挑战似乎并不可行。但是,确实有些事是我们可以做的。例如,做更多更安全的人工智能研究,提高科研资金的透明度、改善审计制度,投入更多资金用于人工智能基础研究。但是,在实验室和国家试图建立先进技术、公司间充满商业竞争的环境中要求人工智能实验室放慢速度是不切实际的。因为这本身创造了很多价值。
LeCun:当我们谈论 GPT-4 和 ChatGPT,更多的是谈论其产品,而并非研发。OpenAI 有些从较为开放的 AI 研究实验室转向了为微软盈利。监管面向公众的产品是可以的,如果它们对公众带来危险,就应该干预。但是,不应该对技术研发进行监管。当一项新技术投入使用时,我们需要做的是确保积极的影响最大化,消极的影响最小化,但并不一定要阻止它。人工智能将放大人类智能,它将会是新的「文艺复兴」。这是一种新的启蒙运动,为什么要阻止它?
吴:在技术监管方面,我同意你的大部分看法。但是也存在一些例外,比如上世纪 60-70 年代,人们用猴子病毒研究 DNA,这些疾病有泄漏的风险,于是科学家通过会议叫停了这一研究,这是有益的。但是,相较之下,我们目前并没有看到人工智能逃逸的风险,实现广泛、智能的 AGI 还需要很久,这在几十年,甚至几百年的时间内都不一定会实现。
LeCun:实际上,我 4 年前在《科学美国人》杂志上曾联合编写了一篇题为「不要害怕终结者」的文章。AI 系统想要主宰人类的情况是不切实际的,因为它们并没有这样的动机。只有社会化动物有这样的动机,而机器并没有此需求。我们可以设计机器的目标或让它们遵守一定的规则,让它们符合人类的最大利益。
此外,不仅公众会发现科技存在的问题,科技行业本身也在不断发现自己的问题并纠正它们。就社交网络而言,人工智能的进步使得更有效地删除仇恨言论之类的事情成为可能,这完全归功于大型语言模型。人工智能是解决方案的一部分,而不是问题所在。
吴:任何技术第一次出现时都不是完美的,实际可行的做法是以一种可以控制的方式,限制其危害,对其进行更好的监测,解决有害的用例。完全暂停研发进程似乎并不明智。
世界范围内的
更多内容,点击下方关注:
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
微信扫码关注该文公众号作者