Redian新闻
>
又来:Hinton、Bengio等300余大佬、名人联名警告AI灭世风险

又来:Hinton、Bengio等300余大佬、名人联名警告AI灭世风险

公众号新闻
机器之心报道
编辑:杜伟、陈萍

图灵奖 AI 三巨头,这次签字的就有两个。


人工智能存在「灭绝」级别的风险,未来的系统可能像核武器一样致命。本周二,著名的人工智能学者、科技公司创始人团结了起来,发出呼吁。


公开信地址:https://www.safe.ai/statement-on-ai-risk

前有马斯克、Bengio 等人发出公开信,叫停 GPT-4 后续 AI 大模型的研发,近期又有 OpenAI 高层发文探讨「超级智能」监管问题,并表示像监管核武器一样监管 AI。AI 可能引发的一系列风险问题正在得到大家越来越多的关注。

本周二,一封重要公开信《AI 风险声明》引发了大量的议论。

这封信由非营利组织人工智能安全中心(CAIS)发布,370 多名 AI 专家在信上签名,信中警告称如果对先进人工智能的发展监管不当,可能会对人类构成生存威胁。

本公开信与以往不同,因为其中许多重要签署者在 AI 实验室、大型科技公司担任要职。其中包括图灵奖得主 Geoffrey Hinton、Yoshua Bengio,OpenAI 首席执行官 Sam Altman,Google DeepMind 联合创始人兼 CEO Demis Hassabis,微软首席技术官 Kevin Scott,谷歌副总裁 James Manyika,OpenAI 首席科学家 Ilya Sutskever,GAN 之父 Ian Goodfellow 等都已签名。

部分公开信签署人。

公开信只有一句声明:「减轻人工智能引发的灭绝风险应当与其他社会规模的风险(如大流行病和核战争)一样成为全球的优先事项。」

Demis Hassabis 还发表了自己的看法,「我一生都在研究人工智能,相信它在推动科学和医学发展以及改善数十亿人的生活方面具有不可思议的潜力。但与任何变革技术一样,我们应该采取预防原则,并格外小心地构建和部署 AI。」


如今人们越来越担心 ChatGPT 等 AI 模型的发展可能给人类带来的潜在威胁。AI 在不断发展的同时,但相应的监管却迟迟没有跟上。

不过一些 AI 研究者们已经意识到这一点,就在上个月,Hinton 离开谷歌,并表示希望不受公司隶属关系的限制,就人工智能的潜在风险进行坦诚的讨论。

针对 AI 风险的呼吁行动一直进行中

这份联合声明之前也有类似的倡议,3 月底上千名行业领袖和专家签署公开信呼吁至少 6 个月内暂停开发比 GPT-4 更强大的 AI 系统,并警告 AI 的发展对社会和人类构成的潜在风险。当时,马斯克、史蒂芬・沃茲尼克、Bengio 和 Gary Marcus 都在公开信中签名。目前,这份公开信的署名人数已经超过了 31000 人。


公开信地址:https://futureoflife.org/open-letter/pause-giant-ai-experiments/

尽管已经有很多人呼吁对 AI 采取谨慎态度,但行业领导者和政策制定者对负责任地监管和开发人工智能的最佳方法几乎没有达成共识。

本月早些时候,包括 OpenAI CEO Sam Altman、Google DeepMind 联合创始人兼 CEO Demis Hassabis 在内的科技领袖会见了美国总统拜登,讨论了潜在的监管问题。在之后的参议院听证上,Sam Altman 主张政府干预,并强调了先进 AI 系统带来的严重风险以及对解决潜在危害进行监管的必要性。

Sam Altman

在前几天的一篇 OpenAI 博客中,该公司高管概述了负责任地管理 AI 系统的几项建议,包括加强顶级 AI 研究者之间的合作、对大语言模型进行更加深入的技术研究以及建立国际 AI 安全组织等。该声明进一步呼吁采取行动,敦促更广泛的社区就 AI 未来及其对社会的潜在影响展开有意义的对话。


原文地址:https://openai.com/blog/democratic-inputs-to-ai

AI 伦理专家不以为然,不必过分关注假想中的风险

关于对假想中导致世界末日的 AI 风险采取行动,并不是所有人都对这些行业领袖和专家的观点表示赞同,来自机器学习社区的质疑声也是有的。其中,经常关注 AI 伦理的专家对这些不断出现的公开信并不「感冒」。

Hugging Face 的机器学习研究科学家 Sasha Luccioni 将 CAIS 的新公开信看作是耍弄花招。首先将 AI 假设存在风险与流行病和气候变化等非常切实的风险相提并论,这对公众来说非常新鲜且能直达内心。但这也是一种误导,将公众的注意力吸引到未来风险上,这样他们就不会过多地思考偏见、法律问题和许可等当前的有形风险。

作家、未来学家 Daniel Jeffries 发推表示,「AI 的风险和危害现在正成为一种地位游戏,每个人都挤在这波潮流中让自己看起来不错…… 人们为什么一直在喋喋不休呢?或许是这些呼吁看起来不错、也不花钱。就是这样。」


因此,尽管有朝一日或许有一种先进的人工智能威胁到了人类,但将注意力集中在假想中的不清不楚的世界末日场景上并不富有建设性,也不会产生助益。人们不能老是将精力放在不存在的事情上。

正如 Daniel Jeffries 所言,「试图解决明天想象中的问题完全是浪费时间。解决好今天的问题,明天的问题到时自然而然地就会解决。」

参考链接:
https://venturebeat.com/ai/top-ai-researchers-and-ceos-warn-against-risk-of-extinction-in-joint-statement/
https://arstechnica.com/information-technology/2023/05/openai-execs-warn-of-risk-of-extinction-from-artificial-intelligence-in-new-open-letter/
https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
普京签令,废止《欧洲常规武装力量条约》;美议员:这是“对美国人的侮辱”;韩国超10万人联名反对核污水排海 | 每日大新闻GIS2023第三届基因疗法与小核酸药物论坛,80余大咖1200余参会嘉宾邀您共聚癸卯花见小行星灭世?安啦,未来1000年不用担心了SRCNN、DRCN、FSRCNN、ESPCN、SRGAN、RED…你都掌握了吗?一文总结超分辨率分析必备经典模型(一)精选SDE岗位 | Applied Intuition、Bandwidth、Intel等公司持续热招!英国秋招大爆发!高盛、BlackRock、BCG、Meta...新开300+岗位!Agustín Hernández:中美洲建筑背景下的未来主义巨构彻底崩了!AI遭全球"围剿",A股咋应对?超9000人联名"封杀",巴菲特又要"抄底"?CNN、GRNN、CLSTM、TD-LSTM/TC-LSTM…你都掌握了吗?一文总结情感分析必备经典模型(一)警惕AI灭绝人类!OpenAI CEO等350位专业人士签署声明​;大脑的核桃状结构决定了我们的思考和感觉 | 环球科学要闻对美中建交贡献重大的老海归《神秘花园》&《Love Me Tender》“官二代”女生用虚假论文被顶尖大学录取!4万人联名反对……柏林工大也有自己的Döner店了!SFT-GAN、CSRCNN、CSNLN、HAN+、Config (f)…你都掌握了吗?一文总结超分辨率分析必备经典模型(三)高盛、Amazon、华泰等300+春招岗位汇总表来袭!最快后天关岗!一个tenure的故事女生用虚假论文被顶尖大学录取!4万人联名反对……惨了!多伦多教堂公寓项目破产,20多位老年人联名要求退款又一墨尔本地标永久关闭!著名水上酒吧因“噪音扰民”被勒令关闭!近7000人联名请愿求放过!智能周报|英伟达市值破万亿,圈内顶流权威联名警告AI风险CTPN、TextBoxes、SegLink、RRPN、FTSN、DMPNet…你都掌握了吗?一文总结OCR必备经典模型(一)马英九Wide&Deep、DCN、xDeepFM、DIN、GateNet、IPRec…你都掌握了吗?一文总结推荐系统必备经典模型(三)GPT-5不能停!吴恩达、LeCun反对千人联名!OpenAI CEO也发声了...Hélène Binet:光的哲学家投资大佬、新加坡GIC前首席投资官,准备竞选新加坡总统父亲被曝是高官! 女生用假论文被MIT录取! 震惊世界, 4万人联名反对VDSR、DRRN、LapSRN、RCAN、DSRN…你都掌握了吗?一文总结超分辨率分析必备经典模型(二)ChatGPT的第一次“危机”:多国“封杀”、近万人联名抵制,AI研发要按下暂停键?AI可能灭绝人类!350位大佬联名警告!但对普通人来说更紧迫的是什么?突发:Hinton从谷歌离职,警告AI风险​Vince瓜核爆升级!V怒骂前夫哥、下手女装大佬、神秘红发女、女博士首回应,Vince真实身份也来了...Hinton 离开GOOGLE精选SDE岗位 |Apple、Amazon、Blizzard Entertainment等公司持续热招!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。