人工智能顶级专家“怒怼”马斯克:GPT-5不能停!|中企荐读
AI并不是问题的根源,而是问题的解决方案。
近期,Yann LeCun(杨立昆)和Andrew Ng(吴恩达)为了马斯克搞了一场直播,直接“怼”了“AI研究暂停至少6个月”的呼吁。杨立昆是卷积之父,也是图灵三巨头之一,而吴恩达是谷歌大脑的缔造者、世界上最大的在线学习平台之一Coursera的创始人。
来源:视频截图
3月29日,著名安全机构生命未来研究所(Future of Life Institute,FLI)以AI对社会和人性存在潜在风险为由,呼吁全球所有研究机构至少在6个月之内暂停训练比 GPT-4 更强的AI,直至此类设计的共享安全协议经由独立专家开发、实施和审核。而后,这封公开信由包括马斯克、苹果联合创始人斯蒂夫·沃兹尼亚克在内的1000多名人工智能专家和行业高管全部共同签署。
吴恩达:这是关于提议暂停建造超过一定规模的人工智能系统研究的话题。
我是DeepLearning.AI的创始人Andrew,很高兴今天能邀请到你们。和我一起的还有Meta的副总裁兼首席人工智能科学家、纽约大学教授、图灵奖得主Yann LeCun。
Yann和我已经是很长时间的朋友了,关于这个为期6个月的暂停提议,我们仔细地考虑过,并认为这是一个足够重要的话题。实际上我认为,如果政府实施这个提议,可能会造成重大的危害。今天我们想在这里和大家聊聊这个问题,嘿,Yann,很高兴能和你聊聊这个问题。
杨立昆:嗨,Andrew,很高兴在这里与你交谈。
吴恩达:让我们先简要概括一下现状。
在过去的十年,甚至可能更长的20到30年里,我们看到了人工智能领域令人兴奋的进步。深度学习运作得很好,而且在过去的一两年里,我们甚至感觉到了人工智能可能会进步得更快。有了ChatGPT和LLama等生成式AI系统,还有图像生成领域,比如MidJourney,Stable Diffusion,DALL-E等,人工智能的发展似乎变得更快了。
与此相关的是,有人担忧人工智能的公平性、偏见以及社会经济的错位问题。此外,还有进一步的关于AGI(通用人工智能)邪恶的臆测性担忧。在这种环境下,生命未来研究所呼吁暂停研究和开发比GPT-4模型更强大的AI模型6个月。包括我们的朋友Yoshua Bengio、苏·拉塞尔、埃隆·马斯克在内的一些人都签署了这个提议。Yann和我都有点担心这个提议。Yann,你对这个提议有什么看法吗?
AI还没那么聪明
吴恩达:是的,我们离AGI还很远,我们应该都同意这一点。除了人工智能脱离控制的前提问题之外,这个提议的挑战之一是它似乎不可行。提议我们进行更多的AI安全研究,或者更透明,让我们为AI的基础研究提供更多公共资金,比如NSF或其他公共资金,这些都是建设性的提议。但是要求AI实验室放慢速度,特别是在如今竞争激烈的商业环境中,各实验室和国家都在努力开发先进技术,创造价值,我觉得这个想法不太现实,也不太可行。如果政府采取行动通过立法暂停AI发展,那将是非常糟糕的创新政策。我无法想象政府通过法律来减缓技术进步是个好主意,即使是政府也不能完全理解。
需要监管的是产品而不是技术
杨立昆:我们谈论GPT-4或者OpenAI目前推出的任何东西,讨论的不是研究和开发,我们在谈论产品开发。
OpenAI从一个相对开放的AI研究实验室转型为一个以盈利为目的的公司,现在主要为微软服务。他们不再透露产品的相关信息以及它们是如何工作的,这是产品开发,而不是AI研发。在这里,阻止产品开发可能是因为你想要监管那些面向公众的产品,避免它们对公共安全造成威胁。显然,这是政府应该干预的地方,就像他们对药物、飞机和汽车等消费品所做的那样。所以某种程度的监管如果做得对,并不一定是坏事。但是你不能监管一项技术,你不能监管一项尚未发展起来的技术。
我举个例子,你必须非常小心地监管一项技术,因为人们需要这项技术,并且它对人们有帮助。我在我的一些社交网络文章中举过这个例子:当印刷机出现时,天主教会非常抵制,因为他们认为这会破坏社会。印刷机确实破坏了社会,因为它让人们能够阅读圣经,从而创建了新教运动。当然,这也带来了负面影响,比如欧洲几百年的宗教战争。但是印刷机也促进了启蒙运动、科学、理性主义和民主的传播,这最终使得美国的诞生。因此,总体来说,印刷机的出现对社会产生了积极的影响。
所以,当一项新技术出现时,我们需要做的是确保它的积极影响最大化,负面影响最小化,但这并不意味着要停止发展技术。当印刷术出现后,奥斯曼帝国禁止了它,因为他们担心这会让人们在宗教正统或政治权力方面有所突破。因此那个地区的智慧基本上陷入了停滞,尽管当时他们在数学和科学方面占据主导地位。阻止一种可以增强人类智能的系统,实际上是在阻碍人类进步。AI将成为人类智能的放大器。我们可能会因此迎来一个新的文艺复兴、一个新的启蒙运动。为什么我们要阻止这种发展呢?
所以早在1975年的阿西洛马会议就制定了一些应对措施,以防止在进行某种类型的DNA研究时出现问题,我认为这是一个好主意。我觉得将阿西洛马会议与AI领域发生的事情进行类比是不太合适的。一个流行的观点是AI会脱离我们的控制,但我看不到任何现实中的AI脱离控制的风险。与传染病的传播风险不同,AI脱离控制的前提是我们不仅需要实现AGI,而且AGI需要足够的强大和智能来战胜数十亿不希望AI伤害或杀死我们的人。这个情景在未来几十年甚至几个世纪都不太可能发生。
杨立昆:关于这个问题,有趣的是有些线上的辩论是不合理的,但有些是合理的。
几年前,我和Anthony Zador共同发表了一篇名为《不必害怕终结者》的文章,文章发表在《科学美国人》杂志上。我们在文中指出,AI系统试图统治人类的情景是不现实的,因为要实现统治,你需要有统治的动机。这种动机在人类以及一些其他社会性物种中存在,但在非社会性物种中并不存在,因此我们设计的AI系统也不会有这种动机。我们完全可以把AI设计成非社会化物种,设计成非支配性、顺从的,或者遵守特定规则以符合人类整体的利益。
吴恩达:是的,这让我想到了一个事实,那就是社会对科技的看法。一二十年前,科技被认为是好的,每个人都有美好的梦想。但在过去的五六年里,人们意识到科技也存在很多问题。我觉得这有争议,因为媒体舆论适当地转向了科技是坏的观点。更加平衡的观点是承认科技为每个人带来的美好,同时也承认它确实存在一定的风险。科技确实存在安全、透明度、权力集中和隐私等方面的问题,这些都是我们正在解决的问题。然而,我认为媒体对科技的负面评价有些过头,这加剧了人们对科技的恐慌,而一个更加平衡的观点将有助于我们更好地前进。
杨立昆:显然有些这样的观点。作为一个公众人物,我也曾经处于争议的中心,尽管我并没有参与Meta公司的内容政策或隐私政策等事务。人们没有意识到的是,不仅是公众和媒体,科技行业本身也已经发现了这些问题,并试图纠正和减轻它们。例如,社交网络中排名算法的副作用,有些是可以预测并在发生之前修复的,有些则在出现问题后才得以修复。在此期间,可能会出现一些不良的副作用,而其中一些是受到技术的限制。
AI的进步实际上是解决社交网络所面临问题的一部分,我说的不仅是Facebook或Instagram,还包括YouTube、TikTok和推特等。AI的进步使得我们能够更有效地删除仇恨言论等,这要归功于大语言模型。因为有了大语言模型,我们可以在全球大部分语言中比以往任何时候都更好地检测到仇恨言论。这在过去的四五年里是不可能实现的,这要归功于AI的进步。AI并不是问题的根源,而是问题的解决方案。
吴恩达:这是一个很好的观点,我们应该以一种非常受控的方式发布新技术,确保它们不会带来危害,并逐步改进。这样做能更好地监控和减轻潜在危险和有害情况,并随之研发解决方案。所以暂停进程似乎没有帮助,我们应该以一种非常可控的方式推出新技术,确保它们无害,并认识到某些伤害风险可能被夸大了。
新闻热线&投稿邮箱:[email protected]
关注“中国企业家”视频号
看更多大佬观点和幕后故事
[ 推荐阅读 ]
微信扫码关注该文公众号作者