Redian新闻
>
数千位大佬下令封杀!超级AI风险4大来源,马库斯大赞深度好文

数千位大佬下令封杀!超级AI风险4大来源,马库斯大赞深度好文

公众号新闻



  新智元报道  

编辑:桃子
【新智元导读】终于有人把人工智能风险讲清楚了。

超级AI会杀人,被吵翻了!


12月ChatGPT、3月GPT-4,OpenAI连番轰炸,让业界人士纷纷恐慌。

紧接着3月底,由马斯克、图灵奖得主Bengio等千名大佬联名,发起暂停超级AI研发的公开信。

2个月后,又有数百位大佬签署了一封联名信,短短22字把AI类比为了传染病和核战争。

关于发起这封联名信的机构,是美国的一家人工智能安全中心(Center for AI Safety)。

近来,来自这个组织的研究人员,就灾难性AI风险做了一个总结性回顾。

论文地址:https://arxiv.org/pdf/2306.12001.pdf

论文中,作者介绍了灾难性人工智能风险的四个主要来源:

- 恶意使用
- 人工智能竞赛
- 组织风险

- 流氓人工智能

与此同时,研究人员还讨论了这些风险可能采取的具体形式,并就如何减轻这些风险提供了实际的建议。

马库斯点评道,灭绝风险不等同于灾难性风险;这是一篇好文章,主要是关于后者。

接下来一起看看吧。

AI风险4大来源


恶意使用

个人和组织可以利用人工智能造成广泛的伤害。威胁包括宣传、审查、监视和生物恐怖主义。

当前,人工智能技术的快速发展增加了生物恐怖主义的风险。

拥有生物工程知识的AI可以促进新型生物武器的创造,并降低获得这些致命武器的障碍。

AI辅助生物武器设计的流行病构成了独特的挑战,因为攻击者比防御者具有优势,并可能对人类构成生存威胁。

2022年3月,研究人员曾发现,人工智能在短短6个小时内发明了4万种可能的新型化学武器。

如果AI能够大规模生产这类化学武器,又不受管控,那无疑是全人类的灾难,所以研究人员立刻报告了技术滥用的潜在风险。

另外,AI智能体不断涌现也是一大风险。当前,AI智能体的发展已经构成独特的威胁,人们可能构建目标危险的人工智能。

GPT-4发布一个月后,开发人员纷纷绕过人工智能安全过滤器,创造了自主的AI智能体,比如爆火的AutoGPT。

甚至,还有旨在摧毁人类、建立全球统治地位,以及获得永生的ChaosGPT。

幸运地是,ChaosGPT并不十分聪明,缺乏制定长期计划、入侵计算机、生存和传播的能力。

然而,考虑到人工智能发展的快速步伐,ChaosGPT的确让许多人看到了更先进的流氓人工智能在不久的将来可能带来的风险。

社会故意散布虚假信息已经是一个严重的问题,削弱了我们对现实的共同理解和两极分化的观点。

人工智能可能被用来产生比以前更大规模的个性化虚假信息,从而严重加剧这个问题。

此外,随着人工智能更善于预测和推动我们的行为,它们将更有能力操纵我们。

对于人工智能恶意使用,研究者建议限制获得危险的AI,优先考虑生物安全,并为开发者建立法律责任。

人工智能竞赛

人工智能的巨大潜力在全球竞争者中造成了竞争压力,他们相互竞争,以争夺权力和影响力。

这种「人工智能竞赛」是由国家和公司驱动的。他们认为必须迅速建立和部署人工智能以确保自己的地位和生存。

通过竞相打造和部署人工智能,企业和军队可能会在安全方面偷工减料,并将决策权让给人工智能,以追求竞争优势。

由于未能正确地区分全球风险的轻重缓急,这种动态使得人工智能的发展更有可能产生危险的后果。

重要的是,这些风险不仅源于人工智能技术的内在本质,而且源于竞争压力。

研究者建议对通用的人工智能进行安全监管、国际协调和公共控制。

组织风险

这就像切尔诺贝利和三里岛一样,糟糕的组织安全可能导致灾难性的人工智能事故。为了减少这些风险,建立人工智能的组织应该采用外部审计、军事级别的信息安全和强大的安全文化。

即使在竞争压力较低的情况下,灾难也会发生。

即使在没有竞争压力或恶意行为者的情况下,诸如人为错误或不可预见的环境等因素仍然可能导致灾难。

「挑战者号」航天飞机灾难表明,组织疏忽可能导致生命损失,即使在没有迫切需要竞争或胜过竞争对手的情况下。

到1986年1月,美国外国之间的太空竞赛已大大减少,但由于判断失误和安全防范措施不足,悲剧事件仍然发生。

流氓人工智能

控制人工智能已经很困难了。失去对高级人工智能的控制可能导致灾难。

最后,人工智能带来的一个独特的风险是流氓人工智能的可能性——这些系统追求的目标违背了我们的利益。

如果一个人工智能系统比我们更聪明,如果我们不能引导它朝有利的方向发展,失去控制,可能会产生严重的后果。

本文中提到的4大人工智能危险值得严重关注。

目前,很少有人致力于降低人工智能的风险。研究人员也不知道如何控制高度先进的人工智能系统,现有的控制方法已经被证明是不够的。

人工智能的内部工作原理还不是很清楚,即使是那些创造它们的人也不清楚,而且目前的人工智能绝不是高度可靠的。

随着人工智能能力继续以前所未有的速度增长,它们可能很快在几乎所有方面超越人类智能,从而迫切需要管理潜在的风险。

Bengio:AI风险常见问题


因为未来有很多不确定性,所以考虑关于不同事件的概率的各种意见可能是有用的,这些事件最终可能因流氓AI而导致人类的灾难。请考虑以下4种说法:

1. 假设我们的社会没有结构性和相关的监管变化,在10年内,我们将知道如何以一个中型公司负担得起的成本建立一个超越人类的AI系统。

2. 假设我们的社会没有结构性和相关的监管变化,而且A是真的,地球上有人会故意指示这样的人工智能去实现一些东西,如果人工智能成功实现其目标,后果将是灾难性的。

3. 假设我们的社会没有结构性和相关的监管变化,而且A是真实的。

地球上有人会无意中训练或给这样的人工智能下达指令,意外地使其自主(例如,有强烈的自我保护目标或发展自己的子目标,如果实现这些目标可能产生灾难性的结果)。

4. 假设我们的社会没有结构性和相关的监管变化,即使A发生,然后B或C发生。

我们将能够利用现有的防御措施保护自己免受灾难(例如,我们目前的法律、警察、军队和网络防御将阻止一个超人的AI造成破坏)。

作者介绍


Dan Hendrycks

Dan Hendrycks在加州大学伯克利分校获得了博士学位,导师是Dawn SongJacob Steinhardt

他曾在芝加哥大学获得了学士学位。目前,他是Center for AI Safety的主任。

Mantas Mazeika

目前,Mantas Mazeika是伊利诺伊大学厄巴纳-香槟分校(UIUC)的博士生。他曾在芝加哥大学获得学士学位。

Thomas Woodside

Thomas Woodside在耶鲁大学学习期间在人工智能安全中心兼职,并对机器学习安全和人工智能治理感兴趣。


参考资料:
https://twitter.com/DanHendrycks/status/1671894767331061763




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
深度好文|卷不进IBD,投资顾问FA考虑一下?深度好文|投资银行,一个外面的人想进、里面的人想出的行业不要帮别人欺负自己(深度好文)深度好文|马斯克宣布卸任,新任女掌门什么来头?2023英国ISC年度报告公布!4%私校生入读牛剑,中国仍是英国私校留学生第一大来源国……GPT-4推理太离谱!大学数理化总分没过半,21类推理题全翻车,马库斯:AGI太遥远深度好文|卡戴珊前脚进哈佛当“教授”,后脚又进入了私募,身价超18亿美元!深度好文|知名咨询公司竟是境外情报机构帮凶,纽约和上海均有办公室!GPT-4两句话复刻DeepMind最快排序算法?马库斯:过于讽刺说话「阴阳怪气」的人,如何回击?(深度好文)!一切疾病,源于3件事(深度好文)一切都是天意!(深度好文)深度好文|“文心一言”眼中的量化大佬竟然是个…张祥龙:中国传统文化的濒危讨论(深度好文)念了一辈子大白字深度好文|摩根大通子女聘用计划曝光,投行只要“关系户”实锤了你把孩子丢垃圾堆里,就没资格怪孩子不成才(深度好文)深度好文|微软宣布停止生产,一个时代结束了……“我的妈妈,她时不时会发疯。”(深度好文)!深度好文|资产管理,一个用别人钱包买买买的行业《江山无限》&合唱《飞鸟和蝉》不怕做不到,就怕想不到改变自己最好的方式(深度好文)深度好文|苹果一夜暴涨8600亿,巴菲特都出来疯狂打Call!深度好文|豆瓣评分9.3的金融美剧回归!高盛CEO出演!深度好文|入门数据科学,请一定逼自己看完这四本书深度好文|又一家投行凉了......人生在世,不要高估你和任何一个人的关系(深度好文)涿州的惊险48小时这儿理工科落后,而最落后的是文科经历了生死之博永远不要羡慕别人的风光(深度好文)深度好文|OpenAI估值已达到2000亿,数据相关岗位人才再次被疯抢!你的人生是在挑水还是在挖井?(深度好文)马库斯总结16项「可信AI」要求,符号主义+神经网络携手打造AGI!40年前的Cyc成版本答案
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。