Redian新闻
>
图灵奖得主吵起来了,LeCun:Bengio、Hinton等的AI灭绝论是荒谬的

图灵奖得主吵起来了,LeCun:Bengio、Hinton等的AI灭绝论是荒谬的

科学

机器之心报道

编辑:陈萍、大盘鸡

LeCun 表示,绝大多数学术同行都非常支持开放式 AI 研发,但还是有反对者。


关于 AI 风险的问题,各路大佬们也是意见不统一。有人带头签署联名信,呼吁 AI 实验室应立即暂停研究,深度学习三巨头 Geoffrey Hinton、Yoshua Bengio 等都支持这一观点。


就在近几日,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施,将安全和道德实践纳入重点,呼吁各国政府应该采取行动,管理 AI 带来的风险。


文中提到了一些紧急治理措施,例如,让国家机构也参与进来,从而防止人们对 AI 的滥用。为了实现有效的监管,政府需要全面了解人工智能的发展。监管机构应采取一系列措施,如模型注册、对举报人进行有效保护以及对模型开发和超级计算机使用的监控等。监管机构还需要在部署之前访问先进的人工智能系统,以评估其危险功能。


不仅如此,时间再往前一点,今年五月,美国非营利组织人工智能安全中心发表了一份声明,警告人工智能应被视为与流行病一样存在灭绝人类的风险,支持该声明的人同样包括 Hinton、Bengio 等人。


今年 5 月,为了畅所欲言地谈论人工智能带来的风险,Hinton 还辞去了在谷歌的工作。在一次纽约时报的采访中,他表示:「大多数人认为这(AI 危害)还很遥远。我过去也认为这还很遥远,可能是 30 到 50 年甚至更长的时间。但显然,我现在不这么想了。」


可以预见,在 Hinton 等 AI 大佬眼里,管理 AI 带来的风险是一项非常紧急的事情。


然而,作为深度学习三巨头之一的 Yann LeCun,对 AI 发展持有非常乐观的态度。对于签署关于 AI 风险的联名信,他基本上都是持反对态度,认为人工智能的发展远未构成对人类的威胁。


刚刚, LeCun 在与 X 用户的交流中,对网友的一些关于 AI 风险的问题给出了回答。


该网友是针对 LeCun 对文章《‘This is his climate change’: The experts helping Rishi Sunak seal his legacy》的看法进行提问的,文章认为 Hinton、Bengio 等人发表联名信的行为使人们转变了对 AI 的看法,从一开始将 AI 视为辅助助手,转变为将 AI 视为潜在威胁。文章接着表示,近几个月来,观察家们在英国发现了越来越多的关于 AI 会造成世界末日的氛围。今年三月,英国政府公布了一份白皮书,承诺不会扼杀 AI 领域的创新。然而仅仅两个月后,英国就开始谈论对 AI 设置护栏,并敦促美国接受其全球人工智能规则计划。


文章地址:https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/

LeCun 对这篇文章的反应是这样的,他不希望英国对 AI 存在宿命论风险的担忧传播给其他国家。


之后,就有了我们前面提到的 LeCun 与 X 用户的交流,以下是 LeCun 全部的回答:


「Altman、Hassabis 以及 Amodei 正在进行大规模的企业游说。他们正尝试对 AI 产业进行监管。而你、Geoff,还有 Yoshua 正在给那些游说禁止开放 AI 研究的人提供『弹药』。


如果你们的恐惧宣传活动取得成功,将不可避免地造成你我都认为是灾难的结果:少数公司将控制 AI。


绝大多数学术同行都非常支持开放式 AI 研发。很少有人相信你所鼓吹的末日场景。你、Yoshua、Geoff 和 Stuart 是唯一的例外。


和许多人一样,我非常支持开放式 AI 平台,因为我相信各种力量的结合:人们的创造力、民主、市场力量和产品法规。我也知道,生产安全且受我们控制的 AI 系统是可能的。我已经为此提出了具体建议。这一切都将促使人们做正确的事。


你写得好像 AI 是凭空产生的,它是我们无法控制的自然现象。但事实并非如此。它之所以取得进步,是因为你我所认识的每一个人。我们和他们都有能力打造『正确的事物』。要求对研发(相对于产品部署)进行监管,其实暗含了这样的假设:这些人和他们所服务的组织都是无能、鲁莽、自我毁灭或者邪恶的。但事实并非如此。


我已经提出了很多论据来证明你所害怕的末日场景是荒谬的。在此我就不再赘述了。但主要的一点是,如果强大的 AI 系统是由目标(包括护栏)驱动的,那么它们就会是安全可控的,因为他们设定了这些护栏和目标。(目前的自回归 LLM 并不是由目标驱动的,所以我们不要从自回归 LLM 的弱点来推断)。


关于开源这件事,你的活动所产生的效果将与你所追求的完全相反。在未来,AI 系统将成为人类所有知识和文化的宝库,我们需要的是开源和免费的平台,以便每个人都能为之做出贡献。开放是让 AI 平台反映人类全部知识和文化的唯一途径。这就要求对这些平台的贡献是众包的,类似于维基百科。除非平台是开放的,否则这样做是行不通的。


 如果开放源代码的 AI 平台被监管,那么另一种情况将一定发生,那就是少数公司将控制 AI 平台,进而控制人们的全部数字依赖。这对民主意味着什么?这对文化多样性意味着什么?这是让我彻夜难眠的原因。」


在 LeCun 长推文的下方,也有许多人「声援」他的观点。


蒙特利尔大学计算机科学与运筹学系教授 Irina Rish,也是 Mila - Quebec AI 研究所的核心成员。她表示或许支持开源 AI 的研究人员们不应该再沉默了,应该引领新兴 AI 的发展。


亚马逊创始人 Beff Jezos 也在评论区中表示,这样的评论是重要的,也是人们所需要的。


网友表示,一开始,讨论安全问题可以丰富大家对未来科技的想象,但是耸人听闻的科幻小说不应当导致垄断政策的出现。


博客主持人 Lex Fridman 对这场辩论有更多的期待。


关于 AI 风险的问题讨论也将影响着 AI 的未来发展。当一个观点抢占风头时,人们会盲目跟从。只有两方能够不断地进行理性探讨,才能够真正地看清 AI 的「真面目」。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Hinton和LeCun再交锋,激辩LLM能否引发智能奇点!LeCun:人类理解能力碾压GPT-4【孝子贤孙伺候着】之(4)你缺钱吗?生成模型构建交互式现实世界模拟器,LeCun觉得非常酷【纽约周边滑雪场推荐 】北美最长滑索道Hunter Mountian、 100%雪地覆盖Mountain Creek...chì rè?zhì rè?千词万字“返场赛”来了!荒谬的世界,能否包容“局外人”?GPT-4不知道自己错了! LLM新缺陷曝光,自我纠正成功率仅1%,LeCun马库斯惊呼越改越错ACM主席雅尼斯·约安尼迪斯:中国人再次获得图灵奖的时间不会太久自动驾驶独角兽如此造假,LeCun都服了GPT-4作弊被抓!吉娃娃or松饼打乱顺序就出错,LeCun:警惕在训练集上测试纽大具身智能新进展:靠视觉反馈学会开罐头,任务成功率提高135%,LeCun点赞吴恩达加入图灵奖得主讨论:「AI灭绝论」弊大于利那么荒谬的阴谋论和谎言,为什么还是有人会信?吴恩达加入图灵三巨头混战,炮轰Sam Altman:AI监管「不会管不如不管」,LeCun转赞AI读脑成真,延迟仅0.25秒!Meta里程碑新研究:MEG实时解码大脑图像,LeCun转赞下一本 | 2023年诺贝尔经济学奖得主克劳迪娅·戈尔丁:“贪婪的工作”是男女收入不平等的根源我们等的是手机吗,我们等的是一口气!斯坦福公开十大主流模型透明度!Llama 2位列第一,GPT-4透明差,LeCun炮轰:盈利完全理解大隐隐于市!越南一家人在San Jose开的小店全是越南客人——Phở Cường 2LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习AI实时解读大脑信号,7倍速还原图像关键视觉特征,LeCun转发Bengio、Hinton、张亚勤等AI大佬再发联名信!AI太危险,我们需要重新定位开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼图灵奖得主姚期智:大模型有无限的产业应用前景,能影响各个行业Arthur Hayes:赵长鹏和币安的遭遇是荒谬的!明天九月谁把我的博客删了?人类对「AI灭绝论」的担忧,这一方法能解决吗?|亮马桥小纪严选美国的富士山 - 瑞尼尔山 (Mt. Rainier)研究称AI绘画碳排放仅为人类画家1/2900,LeCun转发父母灌注过哪些荒谬的东西卷积网络又行了?DeepMind推翻Transformer最强传说,LeCun怒赞春晓时分图灵奖得主LeCun:为什么未来几年AI更可能变得像狗一样聪明,而不是人类?nǚ hóng?nǚ gōng
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。