Redian新闻
>
图灵奖得主Bengio最新长文:人类大脑是生物机器,一定会有超级智能AI超越它

图灵奖得主Bengio最新长文:人类大脑是生物机器,一定会有超级智能AI超越它

科技
杨净 ChatGPT 编译自 凹非寺
量子位 | 公众号 QbitAI

对不起Dave,我恐怕并不会做这件事情。

这是1968年科幻电影《2001:太空漫游》中的经典场景,人工智能HAL9000拒绝了人类的请求,由此展开了殊死搏斗。

如今也成为深度学习巨头、图灵奖得主Yoshua Bengio最新博文的封面:危害人类的AI是如何出现的。

近几个月来,强人工智能对话系统的兴起,引发了各种AI风险的讨论。

即便科学家们普遍认为,有必要对人工智能进行监管,但对于「AI系统是否会失控,进而对世界造成灾难性损害」存在深刻的分歧。

事实上,这些灾难会如何发生,存在诸多不确定性。于是Bengio团队做了一系列的正式定义Rogue AI、假设和主张,并讨论了发生条件、可能情况以及规避策略。

一时间引发热议,不少学界人士站出来推荐:


在不改变原意的基础上,量子位联合ChatGPT做了如下编译。

Rogue AI如何出现

定义1:一个潜在的Rogue AI,是一个自主的人工智能系统,其行为方式可能会对大部分人类造成灾难性伤害,可能会危及我们的社会,甚至我们的物种或生物圈 。

人类大脑是一种生物机器,我们在理解和展示人类智能多个方面的原理上取得很大进展,比如从实例中学习知识和熟练运用语言。虽然我也相信人们有能力设计出有用且安全的AI系统,但必须遵守具体指导方针,比如限制他们的机构。

然而最新进展表明,超级智能AI(全面比人类聪明)的建立离我们预期比以前更近,我们不清楚如何防止潜在的Rogue AI产生。

Rogue AI是目标驱动的。当前大模型几乎没有自主能力,但正如Auto-GPT那样可以转化。更深入了解Rogue AI的产生方式,需要在技术和政策方面的努力。

AI对齐问题(人类真实意图与人工智能的理解和行为不匹配)以及社会竞争压力将有利于更强大、更自主的AI系统的产生,不自觉间就增大了Rogue AI诞生的可能性。

假设1:人类水平的智力是有限的,因为大脑是生物机器

假设2:一台具有人类水平学习能力的计算机,通常会因为额外的技术优势而超过人类的智力。

如果假设1正确,那么会存在超级智能AI系统执行人类无法完成的任务(或者能力和速度不在一个水平上),至少有以下方面的原因:

  • 一台计算机的AI系统可以在任意数量计算机上进行自我复制、获取经验并聚合。

  • AI已经能相当快速阅读整个互联网的内容。

此外,人类大脑还具有进化赋予的能力,当前一些相关的AI研究也正在进行。至于进化需要高能量消耗,这点在AI上已经实现。例如训练目前最先进的大模型的一万个GPU集群。

定义2:一个自主的、目标导向的智能实体会设定并努力实现自己的目标(可能作为人类设定目标的子目标),并相应地采取行动

需要注意的是,自主性可能产生于人类设定的目标和奖励。当主要目标是生存和繁殖,那么它将是完全自主的,这是最危险的情况。

如果这些目标不严格包括人类和生物圈的福祉,即不足以与人类的权利和价值观保持一致,那么这样的系统就有可能成为潜在的Rogue AI。

下面这些情况都将可能导致Rogue AI的出现:

  • 不怀好意的人类。

  • 构建AI Agent的意外后果。除非AI对齐研究取得进展,否则没有强有力的安全保障。

  • 企业失控。企业可以被视作特殊的人工智能,其构建模块是企业中的员工,他们大部分时间意识不到企业整体行为的后果。

  • 人类对创造类人实体的迷恋。正如科幻小说/电影中看到的, 这些实体具有情感、人类外貌甚至意识。

我认为我们应该远离那些外貌和行为都很像人类的AI系统,因为他们可能会变成Rogue AI。

  • AI Agents之间进化压力的意外结果。不同人类和组织争相设计更强大的AI系统,成千上万的研究员给予AI指令,这种过程可能会激发AI学习更快。

以上分析和AI安全研究能帮助我们设计政策、降低潜在风险。

比如前阵子“暂停开发比GPT-4更强的人工智能系统”的呼吁,就是个很好的开端。这需要国家监督和国际协议,条约需要各国来共同达成。这类似于上世纪50年代关于禁止核武器条约。

为了保护公众、社会和人类免受灾难性后果,减缓高风险的人工智能研究和应用进展是值得的。

当然这也不会阻止一些有益研究,比如帮助科学家更好地理解疾病和气候变化的人工智能系统。

不过资本主义竞争本质将可能导致Rogue AI行为,AI经济学家将会帮助我们设计出不依赖竞争、更关注利润最大化的经济体系,并提供足够的激励和惩罚机制。

Rogue AI的风险是可怕的,但它也可能成为重新设计我们的社会,使之朝着更广泛福祉的方向发展,比如解决医疗、教育资源不平等问题。

首先感谢Hinton

值得一提的是,在这篇博文的最后,Bengio还特意感谢了Hinton,可是放在了第一位哦~

而就在此博文发布之际,LeCun也浅评价了他俩:

他们都不是经济学家,没有研究技术进步对劳动力市场的影响。

嗯,而他自己却经常与经济学家交流。(手动狗头)

感兴趣的旁友,可戳下方链接学习学习:
https://yoshuabengio.org/2023/05/22/how-rogue-ais-may-arise/

「AIGC行业社群」招募中!

欢迎关注AIGC的伙伴们加入AIGC行业社群,一起学习、探索、创新AIGC!

加好友请备注「AIGC」&「姓名-公司-职位」噢 ~



点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
再裁员15% 普利策奖得主BuzzFeed砍掉新闻部门Nature:推翻大脑研究百年范式,人类大脑的形状决定了其功能GPT-5恐被叫停!马斯克、图灵奖得主等千名专家呼吁暂停超强AI研发,至少6个月图灵奖得主Hinton:我已经老了,如何控制比人类更聪明的AI交给你们了OpenAI预言:超级智能10年内降临!正集结算力拯救人类,4年彻底攻克对齐图灵奖得主,超算Top 500榜单创始人:机器学习太过依赖GPU了!图灵奖得主杨立昆:GPT模式五年就不会有人用了,世界模型才是AGI未来危险!马斯克、赫拉利、图灵奖主联署:“暂停巨型人工智能实验至少半年”的公开信相爱的那天,以为是永远清华ACL 2023最新长文 | WebCPM:首个联网支持中文问答开源模型MIT 教授/校友Kellis姐弟同台分享!超越人类智能:人工智能与阴阳促进人类潜能从池塘里最不起眼的生物中,这位女性诺奖得主弄清了人类衰老之谜“危险!立刻停下所有大型AI研究!”马斯克、图灵奖得主领衔,上千名硅谷企业家科学家联名呼吁75岁图灵奖得主Hinton离职谷歌:痛悔毕生工作,无法阻止人类AI大战AI太强,人类危险?马斯克、图灵奖得主紧急呼吁暂停GPT-4模型后续研发格局炸裂!文津奖得主吴军博士写给孩子的「人类大历史」对话图灵奖得主希发基思:AI带来的最大威胁是使人类变成“奴隶的奴隶”为什么马斯克、图灵奖得主等千名从业者联名叫停大型AI研究?叫停GPT-5!马斯克、苹果联合创始人、图灵奖得主联名上书:至少停6个月两首合唱:《你一定要幸福》&《路过人间》背靠英伟达+图灵奖得主,这家企服赛道公司成为第三大AI独角兽OpenAI 预测超级智能 10 年内到来,要组建「人类护卫队」大模型不是未来?你需要学习下图灵奖得主Yann LeCun选择的「世界模型」“后会有期”到底是怎么一回事儿?75岁AI教父Hinton:超级智能将如何掌控人类「从未被制造出的最重要机器」,艾伦·图灵及图灵机那些事图灵奖得主LeCun:我赞成用LLM写论文!科研老将更恨ChatGPT?回国——签证,奥斯卡,电影节(多图)英伟达撑腰+图灵奖得主投资,这家企业赛道的公司成为AI领域第三大独角兽75岁图灵奖得主Hinton离职谷歌!痛悔毕生工作,无法阻止人类AI大战智能革命:人工智能、机器学习、生物 学习和智能材料的合力AI教父、图灵奖得主Hinton离职谷歌,对毕生工作后悔和恐惧AI 教父 Hinton:我已经老了,如何控制比人类还聪明的 「超级智能」,交给你们了发小嫁给老白男, 之后立即停止训练比 GPT-4 更强的模型,至少六个月!马斯克、图灵奖得主等数千 AI 专家紧急呼吁
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。