Redian新闻
>
像核战争一样,AI可能灭绝人类:Geoffrey Hinton、Sam Altman等百名专家签署了一封公开信

像核战争一样,AI可能灭绝人类:Geoffrey Hinton、Sam Altman等百名专家签署了一封公开信

公众号新闻

来源:学术头条

作者:学术头条


多位图灵奖得主、顶级 AI 公司 CEO、顶尖高校教授,与数百位在各自领域享有话语权的专家,共同签署了一份公开信,内容简单却有力:


降低 AI 灭绝人类的风险,应该与大流行病、核战争等其他社会规模的风险一样,成为全球范围内的优先事项。



该公开信发表在 Center for AI Safety(CAIS)上。CAIS 表示,这份简短的声明旨在就“来自人工智能的广泛的重要和紧迫的风险”这一主题展开讨论。


在这份联名公开信的人名列表中,有很多耳熟能详的名字,包括:


  • 图灵奖得主 Geoffrey Hinton、Yoshua Bengio;

  • OpenAI 的 CEO Sam Altman、首席科学家 Ilya Sutskever、CTO Mira Murati;

  • Google DeepMind 的 CEO Demis Hassabis、众多研究科学家;

  • Anthropic CEO Dario Amodei;

  • 以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。

 




在一份相关的新闻稿中,CAIS 表示,他们希望借此“设置护栏并建立机构,以便 AI 风险不会让我们措手不及”,并将对 AI 的警告比作“原子弹之父” J.Robert Oppenheimer 对原子弹的潜在影响的警告

 

然而,一些 AI 伦理学专家却不以为然。Hugging Face 的机器学习研究科学家 Sasha Luccioni 博士将这一公开信比喻为“欺骗/迷惑公众的行为”(sleight of hand)。

 

她表示,将 AI 的假设性生存风险与大流行病和气候变化等非常实际的风险放在一起提及,这对公众来说是非常直观的,更容易让他们相信。

 

但这也是一种误导,“将公众的注意力吸引到一件事(未来的风险)上,这样他们就不会想到另一件事(当前有形的风险,如偏见、法律问题)。”

 

一直以来,吴恩达(Andrew Ng)和杨立昆(Yann LeCun)都是 AI 技术的积极拥抱者。在这封公开信发出后,吴恩达便在个人推特上发表了个人看法:



当我想到人类大部分地区的生存风险时:

下一个大流行病;

气候变化→大规模的人口减少;

另一颗小行星。

AI 将是我们解决方案的一个关键部分。因此,如果你想让人类在未来 1000 年生存和发展,让我们让人工智能走得更快,而不是更慢。


随后,杨立昆转发了这条推特并戏谑称,“在我们拥有即使是狗级别的 AI(更不用说人类级别)的基本设计之前,讨论如何使其安全是不成熟的(想法)。”



自 ChatGPT/GPT-4 等 AI 大模型问世以来,一些 AI 安全研究人员开始担心,一个比人类聪明得多的超级智能 AI 很快就会出现,逃脱囚禁,并控制或消灭人类文明。

图|一张由人工智能生成的“AI 占领世界”的图片

虽然这种所谓的长期风险在一些人的脑海中挥之不去,但其他人认为,就这一话题签署一封模糊的公开信,对于那些可能对其他 AI 风险(如 deepfake)负有责任的企业而言是一种缓解方法。Luccioni 认为,“这使得签署这封信的人成为故事的英雄,因为他们是创造这种技术的人。”

在 Luccioni 等批评者看来,AI 技术并非无害,相反,他们认为优先考虑假设的未来威胁是对目前存在的 AI 风险的转移,这些危害带来了棘手的伦理问题,而销售 AI 工具的大公司宁愿选择忘记这些问题。

因此,即使有一天 AI 可能会威胁到人类,但这些批评者认为,关注 2023 年的一个不明确的末日场景是没有建设性的,也没有帮助。他们指出,你不可能研究不真实的东西。

“试图解决想象中的明天的问题,完全是浪费时间。解决今天的问题,明天的问题将在我们到达那里时得到解决。”

参考链接:
https://www.safe.ai/statement-on-ai-risk#open-letter
https://www.safe.ai/press-release


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
辽宁龙卷风、​新西兰坐飞机称体重、人工智能可能灭绝人类等丨今日天下放弃反向传播后,Geoffrey Hinton参与的前向梯度学习重磅研究来了SRCNN、DRCN、FSRCNN、ESPCN、SRGAN、RED…你都掌握了吗?一文总结超分辨率分析必备经典模型(一)挣脱桎梏,放飞灵的自由三大巨头联合署名!又一封“警惕AI、保卫人类”的公开信发出我和遐西(xiaxi)的网络缘分美国的AI霸权会像核霸权一样吗???Sam Altman 美国国会听证的发言,为美国AI霸权全世界开路!!!CTPN、TextBoxes、SegLink、RRPN、FTSN、DMPNet…你都掌握了吗?一文总结OCR必备经典模型(一)谷歌痛失大将:“AI教父” Geoffrey Hinton离职,只为给人类敲响警钟?CNN、GRNN、CLSTM、TD-LSTM/TC-LSTM…你都掌握了吗?一文总结情感分析必备经典模型(一)Sam's Club这个泡面什么来历?已经炒到2000元一桶了,真那么好吃吗「AI教父」Geoffrey Hinton:智能进化的下一个阶段ChatGPT老板警告:AI可能灭绝人类Agustín Hernández:中美洲建筑背景下的未来主义巨构AI 教父 Geoffrey Hinton :AGI 革命堪比车轮的发明AI会不会灭绝人类?耶鲁CEO峰会调查发现...2023美国科学院院士名单公布:Geoffrey Hinton、Jack Dongarra等当选双林奇案录第三部之天禅寺:第十三节𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶内衣裤,软弹有度,上身0束缚~“ChatGPT之父”警告AI可能灭绝人类;英伟达发布新型AI芯片GH200|AIGC周观察第四期一封公开信,暴露了淄博的套路Hinton 离开GOOGLE“AI 教父”Geoffrey Hinton:智能进化的下一个阶段警惕AI灭绝人类!OpenAI CEO等350位专业人士签署声明​;大脑的核桃状结构决定了我们的思考和感觉 | 环球科学要闻突发!ChatGPT之父警告 AI可能灭绝人类,350名AI权威签署联名公开信突发:Geoffrey Hinton从谷歌离职,警告AI风险AI可能灭绝人类!350位大佬联名警告!但对普通人来说更紧迫的是什么?350名专家警告:人工智能可能灭绝人类!长篇小说《如絮》第一百零九章 西维吉尼亚-旧金山-1952-1955年 1 生根之处Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调或灭绝人类?人工智能先驱警告AI将以6种方式伤害人类Sam’s club La Mer $100 off350位大佬警告,AI可能灭绝人类!CIT VS CMU巨头、专家发联名信:降低 AI 灭绝人类风险;Kindle 本月关闭电子书店;刘慈欣:科幻作家未来被 AI 替代 | 极客早知道AI教父Geoffrey Hinton :AGI革命堪比车轮的发明350余位专家高管联名:AI堪比核战,灭绝人类【𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶无痕内裤】49元三条!巨巨巨好穿 !!简直就是辣妹顶配,食品级冰箱收纳盒【一日团】
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。