Redian新闻
>
人工智能顶级专家“怒怼”马斯克:GPT-5不能停!|中企荐读

人工智能顶级专家“怒怼”马斯克:GPT-5不能停!|中企荐读

公众号新闻

AI并不是问题的根源,而是问题的解决方案。


整理部梦凡
头图来源|视频截图


近期,Yann LeCun(杨立昆)和Andrew Ng(吴恩达)为了马斯克搞了一场直播,直接“怼”了“AI研究暂停至少6个月”的呼吁。杨立昆是卷积之父,也是图灵三巨头之一,而吴恩达是谷歌大脑的缔造者、世界上最大的在线学习平台之一Coursera的创始人。


来源:视频截图


3月29日,著名安全机构生命未来研究所(Future of Life Institute,FLI)以AI对社会和人性存在潜在风险为由,呼吁全球所有研究机构至少在6个月之内暂停训练比 GPT-4 更强的AI,直至此类设计的共享安全协议经由独立专家开发、实施和审核。而后,这封公开信由包括马斯克、苹果联合创始人斯蒂夫·沃兹尼亚克在内的1000多名人工智能专家和行业高管全部共同签署。


而杨立昆和吴恩达的这场直播主要针对的就是马斯克等人这一呼吁。两人在直播中直言,“AI研究暂停6个月,才是真正巨大的伤害。 应该受监管的是AI产品,而不是背后的研究。”

核心观点如下:


1.AI在教育、医疗等方面创造了巨大的价值,帮助了很多人。暂停AI研究会造成很多危害,减缓很多人对有价值事物的创造。

2.未来的AI系统不会像现有的自回归模型(如ChatGPT、GPT-4)或之前的其他系统那样设计,将有新的想法使这些系统更易于控制。

3.AI末日论或AI末日说其实是一种过度炒作。AI系统将会在各个领域超越我们,这将会发生,但不会在明天就发生。

4.某种程度的监管如果做得对,并不一定是坏事。但是不能监管一项技术,不能监管一项尚未发展起来的技术。当一项新技术出现时,我们需要做的是确保它的积极影响最大化,负面影响最小化,但这并不意味着要停止发展技术。

5.AI系统试图统治人类的情景是不现实的,因为要实现统治,需要有动机。这种动机在人类以及一些其他社会性物种中存在,但在非社会性物种中并不存在,我们完全可以把AI设计成非社会化物种,设计成非支配性、顺从的,或者遵守特定规则以符合人类整体的利益。
以下是吴恩达与杨立昆的对话实录(有删减):


吴恩达:这是关于提议暂停建造超过一定规模的人工智能系统研究的话题。


我是DeepLearning.AI的创始人Andrew,很高兴今天能邀请到你们。和我一起的还有Meta的副总裁兼首席人工智能科学家、纽约大学教授、图灵奖得主Yann LeCun。


Yann和我已经是很长时间的朋友了,关于这个为期6个月的暂停提议,我们仔细地考虑过,并认为这是一个足够重要的话题。实际上我认为,如果政府实施这个提议,可能会造成重大的危害。今天我们想在这里和大家聊聊这个问题,嘿,Yann,很高兴能和你聊聊这个问题。


杨立昆:嗨,Andrew,很高兴在这里与你交谈。


吴恩达:让我们先简要概括一下现状。


在过去的十年,甚至可能更长的20到30年里,我们看到了人工智能领域令人兴奋的进步。深度学习运作得很好,而且在过去的一两年里,我们甚至感觉到了人工智能可能会进步得更快。有了ChatGPT和LLama等生成式AI系统,还有图像生成领域,比如MidJourney,Stable Diffusion,DALL-E等,人工智能的发展似乎变得更快了。


与此相关的是,有人担忧人工智能的公平性、偏见以及社会经济的错位问题。此外,还有进一步的关于AGI(通用人工智能)邪恶的臆测性担忧。在这种环境下,生命未来研究所呼吁暂停研究和开发比GPT-4模型更强大的AI模型6个月。包括我们的朋友Yoshua Bengio、苏·拉塞尔、埃隆·马斯克在内的一些人都签署了这个提议。Yann和我都有点担心这个提议。Yann,你对这个提议有什么看法吗?


AI还没那么聪明


杨立昆:我的第一反应是,呼吁延缓研究和开发是一种新的模糊主义。为什么要减缓知识、事物和科学的进步呢?还有关于产品的问题,我完全支持对进入人们手中的产品进行监管,但我不知道为什么要监管研究和开发。我认为这样做除了减少我们可以用来实际提高技术安全性的知识之外,没有任何意义。

吴恩达:是的,尽管现在的AI存在一定的危害风险,比如偏见、公平性和权力集中等现实问题,但是人工智能正在创造巨大的价值。随着过去10年,甚至在过去一年或几个月里的深度学习,诸如用于教育或医疗保健的创新AI应用等领域的进步令人难以置信。许多人正在利用AI帮助他人,与其惊讶于GPT-4的发展,不如构建更好的GPT-4,会有助于帮助很多人。暂停这种进步会造成很多危害,减缓很多人对有价值事物的创造。

杨立昆:是的。我认为这封信的签署者可能有几个动机。其中一些人可能处于一个极端,担心某一天AGI会被启动,并在短时间内消灭人类。我认为很少有人真的相信这种情况,或者认为这是一个无法阻止的明确的威胁。还有一些人可能更为理性,认为需要解决实际的潜在危害和风险。我同意他们的观点,AI存在很多问题,例如如何控制AI系统、如何使它们提供真实信息等。

但是,未来的AI系统不会像现有的自回归模型(如ChatGPT、GPT-4)或之前的其他系统那样设计,这有点缺乏想象力。我认为将有新的想法使这些系统更易于控制,所以问题就变成了如何为这些系统设计符合人类的价值观和政策。如果以为我们足够聪明来构建超级智能的系统,但却没有足够的智慧来设计良好的目标以使它们表现良好,这种情况的概率非常低。

还有一个政治问题,是AI对人们和经济的影响。目前,这些产品主要由少数几家公司生产,这些公司将获得更多的权力和影响力,并以盈利为动力。这是否具有内在风险?确实,因此我们需要监管产品,而不是停止研究和开发。

吴恩达:关于AI对齐问题,我对这个词有点矛盾。让AI表现得更好确实是近年来技术取得迅速进展的一个方面,AI生成有毒言论确实是一个现实问题。但是,当我们从基本的语言模型(如GPT-3)过渡到可以加以指导的模型(如ChatGPT)时,这是一种实质性的进步。现在的模型虽然仍不完美,但我们确实在指导模型方面取得了实质性的进展,这就是为什么许多公司都在朝这个方向发展。我认为加大AI安全和对齐AI的力度比提议全面暂停更具建设性。

事实上,AI末日论或AI末日说其实是一种过度炒作。AI可能失控并引发过度恐慌,但这种AI末日论炒作同样有害,因为它也在制造不切实际的期望。


杨立昆:我同意,而且现在像ChatGPT和GPT-4这样的东西已经被人们所使用,包括微软的版本。人们一直在与之互动,这或许给人一种AI已经接近人类智能水平的错觉。因为我们作为人类非常注重语言,我们认为只要一个事物表达得流利,它就是智能的。但事实并非如此,这些系统对现实的理解非常肤浅。它们没有真正体验过现实,它们只是通过纯文本进行训练。GPT-4尝试了一点图像,但它们对世界的理解大多是非常肤浅的,这就是为什么它们看似很有说服力的胡言乱语和实际并不相符。

而且AI的智商还没达到人类的水平,毫无疑问,在未来的几十年里,AI系统的智能水平会达到或超过人类的水平,涵盖人类所有的智能领域。这些AI系统将会在各个领域超越我们,这将会发生,但不会在明天就发生。在我们拥有有机会达到人类智能的系统蓝图之前,讨论如何安全地使用它们这种问题都为时尚早。因为如果汽车还不存在,你怎么设计安全带呢?如果飞机还没有发明,你怎么设计安全的喷气发动机呢?


所以,我认为有些问题还为时过早,而且对于未来的恐慌存在误导。

吴恩达:过去的一年里,我们在AI领域取得了令人兴奋的进展,希望在未来的30或50年里,我们将继续取得令人兴奋的进展,到那时,我们也许会有某种形式的AGI。但在更接近这个目标之前,真的很难想象该如何实现。正如我们在这个50年的旅程中,为了实现AGI,要求暂停半年,然后进行接下来49年半的工作,我真的不明白这会有什么帮助。

杨立昆:显然,AI离人类智能水平还有很远,否则我们已经有了五级自动驾驶,但事实并非如此。一个青少年可以在大约20个小时的训练中学会驾驶,而我们却没有自动驾驶汽车。有的系统在语言上非常流畅,但它们接受的训练数据量高达数万亿个单词。一个人每天阅读8小时,需要22,000年的时间才能完成,这简直令人难以置信。因此,这种智能与我们在人类身上观察到的智能类型并不相同。如果我们确实观察到了这种智能,这就是莫拉维克悖论的另一个例子,那些看似复杂的智力任务,如下棋和写作文,对于机器来说实际上相对简单。而那些我们认为理所当然的事情,比如任何一个10岁小孩都可以做的,收拾餐桌、操作洗碗机,还没有机器人能做到。Andrew,我记得你在Facebook上也研究过这个问题。

吴恩达:是的,我们离AGI还很远,我们应该都同意这一点。除了人工智能脱离控制的前提问题之外,这个提议的挑战之一是它似乎不可行。提议我们进行更多的AI安全研究,或者更透明,让我们为AI的基础研究提供更多公共资金,比如NSF或其他公共资金,这些都是建设性的提议。但是要求AI实验室放慢速度,特别是在如今竞争激烈的商业环境中,各实验室和国家都在努力开发先进技术,创造价值,我觉得这个想法不太现实,也不太可行。如果政府采取行动通过立法暂停AI发展,那将是非常糟糕的创新政策。我无法想象政府通过法律来减缓技术进步是个好主意,即使是政府也不能完全理解。


需要监管的是产品而不是技术


杨立昆:我们谈论GPT-4或者OpenAI目前推出的任何东西,讨论的不是研究和开发,我们在谈论产品开发。


OpenAI从一个相对开放的AI研究实验室转型为一个以盈利为目的的公司,现在主要为微软服务。他们不再透露产品的相关信息以及它们是如何工作的,这是产品开发,而不是AI研发。在这里,阻止产品开发可能是因为你想要监管那些面向公众的产品,避免它们对公共安全造成威胁。显然,这是政府应该干预的地方,就像他们对药物、飞机和汽车等消费品所做的那样。所以某种程度的监管如果做得对,并不一定是坏事。但是你不能监管一项技术,你不能监管一项尚未发展起来的技术。



我举个例子,你必须非常小心地监管一项技术,因为人们需要这项技术,并且它对人们有帮助。我在我的一些社交网络文章中举过这个例子:当印刷机出现时,天主教会非常抵制,因为他们认为这会破坏社会。印刷机确实破坏了社会,因为它让人们能够阅读圣经,从而创建了新教运动。当然,这也带来了负面影响,比如欧洲几百年的宗教战争。但是印刷机也促进了启蒙运动、科学、理性主义和民主的传播,这最终使得美国的诞生。因此,总体来说,印刷机的出现对社会产生了积极的影响。

所以,当一项新技术出现时,我们需要做的是确保它的积极影响最大化,负面影响最小化,但这并不意味着要停止发展技术。当印刷术出现后,奥斯曼帝国禁止了它,因为他们担心这会让人们在宗教正统或政治权力方面有所突破。因此那个地区的智慧基本上陷入了停滞,尽管当时他们在数学和科学方面占据主导地位。阻止一种可以增强人类智能的系统,实际上是在阻碍人类进步。AI将成为人类智能的放大器。我们可能会因此迎来一个新的文艺复兴、一个新的启蒙运动。为什么我们要阻止这种发展呢?

吴恩达:是的,关于监管技术的想法,我几乎完全同意你的观点,只有一个例外。一些请愿书的作者(在FAQ中)提到了1975年的阿西洛马会议,这是关于基因重组技术的会议。我认为这个类比并不是很好,当研究人员在六七十年代研究基因重组技术时,他们对猴病毒进行了研究,这存在着创造新疾病并影响人类健康的风险。正如我们在新冠疫情中看到的,大流行病是一个现实存在,对社会造成了极大的破坏,真的很可怕。

所以早在1975年的阿西洛马会议就制定了一些应对措施,以防止在进行某种类型的DNA研究时出现问题,我认为这是一个好主意。我觉得将阿西洛马会议与AI领域发生的事情进行类比是不太合适的。一个流行的观点是AI会脱离我们的控制,但我看不到任何现实中的AI脱离控制的风险。与传染病的传播风险不同,AI脱离控制的前提是我们不仅需要实现AGI,而且AGI需要足够的强大和智能来战胜数十亿不希望AI伤害或杀死我们的人。这个情景在未来几十年甚至几个世纪都不太可能发生。

杨立昆:关于这个问题,有趣的是有些线上的辩论是不合理的,但有些是合理的。

几年前,我和Anthony Zador共同发表了一篇名为《不必害怕终结者》的文章,文章发表在《科学美国人》杂志上。我们在文中指出,AI系统试图统治人类的情景是不现实的,因为要实现统治,你需要有统治的动机。这种动机在人类以及一些其他社会性物种中存在,但在非社会性物种中并不存在,因此我们设计的AI系统也不会有这种动机。我们完全可以把AI设计成非社会化物种,设计成非支配性、顺从的,或者遵守特定规则以符合人类整体的利益。

吴恩达:是的,这让我想到了一个事实,那就是社会对科技的看法。一二十年前,科技被认为是好的,每个人都有美好的梦想。但在过去的五六年里,人们意识到科技也存在很多问题。我觉得这有争议,因为媒体舆论适当地转向了科技是坏的观点。更加平衡的观点是承认科技为每个人带来的美好,同时也承认它确实存在一定的风险。科技确实存在安全、透明度、权力集中和隐私等方面的问题,这些都是我们正在解决的问题。然而,我认为媒体对科技的负面评价有些过头,这加剧了人们对科技的恐慌,而一个更加平衡的观点将有助于我们更好地前进。

杨立昆:显然有些这样的观点。作为一个公众人物,我也曾经处于争议的中心,尽管我并没有参与Meta公司的内容政策或隐私政策等事务。人们没有意识到的是,不仅是公众和媒体,科技行业本身也已经发现了这些问题,并试图纠正和减轻它们。例如,社交网络中排名算法的副作用,有些是可以预测并在发生之前修复的,有些则在出现问题后才得以修复。在此期间,可能会出现一些不良的副作用,而其中一些是受到技术的限制。

AI的进步实际上是解决社交网络所面临问题的一部分,我说的不仅是Facebook或Instagram,还包括YouTube、TikTok和推特等。AI的进步使得我们能够更有效地删除仇恨言论等,这要归功于大语言模型。因为有了大语言模型,我们可以在全球大部分语言中比以往任何时候都更好地检测到仇恨言论。这在过去的四五年里是不可能实现的,这要归功于AI的进步。AI并不是问题的根源,而是问题的解决方案。


吴恩达:这是一个很好的观点,我们应该以一种非常受控的方式发布新技术,确保它们不会带来危害,并逐步改进。这样做能更好地监控和减轻潜在危险和有害情况,并随之研发解决方案。所以暂停进程似乎没有帮助,我们应该以一种非常可控的方式推出新技术,确保它们无害,并认识到某些伤害风险可能被夸大了。

新闻热线&投稿邮箱:[email protected]


END 
值班编辑:姚赟  审校:张格格  制作:姜辰雨‍‍‍‍‍‍‍‍‍

关注“中国企业家”视频号

看更多大佬观点和幕后故事


[ 推荐阅读 ]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
余华王安忆对谈:生活不是按照常理出牌的,这是我们打败GPT的唯一途径|中企荐读GPT-5不能停!吴恩达田渊栋反对千人联名,OpenAI CEO也发声了GPT-5不能停!吴恩达、LeCun反对千人联名!OpenAI CEO也发声了...李开复:AI大模型是不能错过的历史机遇 |中企荐读人工智能教父:也许还有希望限制AI的无序发展|中企荐读Gpt 4一出,谁与争锋星巴克创始人“从头开始”——那些比生意更重要的事|中企荐读Sam Altman最新访谈:AI是让世界变得更好的唯一可持续方式|中企荐读火车上的饭菜为什么又贵又难吃?|中企荐读特斯拉:把火箭驱动器装进汽车里|中企荐读二年级选课,忽闻一夜 GPT 来,千课 万课 AI 开“星舰”爆炸,马斯克离登陆火星还有多远|中企荐读【文字精华】OnBoard! x 硅谷徐老师|生成式AI系列4:对话微软大模型专家:GPT是否是通用人工智能的下一步LeCun吴恩达开直播,疾呼GPT-5不能停!LeCun:干脆管制凤头鹦鹉6个月谁是汽车产业的“破坏者”|中企荐读英伟达如何掀翻英特尔王座|中企荐读李开复:AI 2.0是平台级机会,比移动互联网大十倍|中企荐读经济学家汤敏:在GPT领域,我们有可能后来居上|中企荐读GPT-5 不能停!吴恩达 LeCun 直播回怼马斯克:汽车都还没发明,要什么安全带GPT-5不能停!吴恩达和LeCun直播回怼马斯克:汽车都还没发明,要什么安全带...女人出轨,会有三种“味道”,特别第一种,是洗不掉的ChatGPT爆火之后,重读微软CEO萨提亚的《刷新》|中企荐读微软CTO对话比尔·盖茨:GPT-4与人工智能的未来黄民烈:人类和AI如何相处,一直是个难题|中企荐读炸掉北溪民用设施习不想做点啥我的厉害国, 下了狠手?重访西班牙(12)-黄金之城的欢歌胖东来创始人:不是变成资本家,而是真正的创造者|中企荐读比尔·盖茨:GPT背后的人工智能是1980年以来最重要技术进步|首席资讯日报谁缔造了“富士康们”|中企荐读华为投入数千人实现自主可控ERP;SpaceX星舰爆炸了,马斯克:祝贺!谷歌合并两大人工智能部门,加速力战ChatGPT|Q资讯「ChatGPT之母」最新采访:GPT-4离超级智能还很远,半年内不会训练GPT-5富士康科技首席数字官史喆:ChatGPT是划时代的效率工具 |中企荐读“心机boy”马斯克:明面上呼吁暂停先进AI研发,背地里悄悄买1万块GPU推进大模型项目韦神出的这道题火了,GPTGPT新婚夜老婆发烧,我去买药忘拿手机,折回去开门:“娶个畜生呀”OpenAI科学家告诉你:欲成伟业,莫设目标|中企荐读ChatGPT带来的巨大范式转移,意味着什么|中企荐读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。