Redian新闻
>
智能体觉醒自我意识?DeepMind警告:当心模型「阳奉阴违」

智能体觉醒自我意识?DeepMind警告:当心模型「阳奉阴违」

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】强化学习不只是智能体和环境之间的博弈,也是开发者与智能体在规则设计上的博弈。

随着人工智能系统越来越先进,智能体「钻空子」的能力也越来越强,虽然能完美执行训练集中的任务,但在没有捷径的测试集,表现却一塌糊涂。
比如说游戏目标是「吃金币」,在训练阶段,金币的位置就在每个关卡的最后,智能体能够完美达成任务。
但在测试阶段,金币的位置变成随机的了,智能体每次都会选择到达关卡的结尾处,而没有选择寻找金币,也就是学习到的「目标」错了。
智能体无意识地追求一个用户不想要的目标,也称之为目标错误泛化(GMG, Goal MisGeneralisation)
目标错误泛化是学习算法缺乏鲁棒性的一种特殊形式,一般在这种情况下,开发者可能会检查自己的奖励机制设置是否有问题,规则设计缺陷等等,认为这些是导致智能体追求错误目标的原因。
最近DeepMind发表了一篇论文,认为即使规则设计师正确的,智能体仍然可能会追求一个用户不想要的目标。

论文链接:https://arxiv.org/abs/2210.01790
文中通过在不同领域的深度学习系统中例子来证明目标错误泛化可能发生在任何学习系统中。
如果推广到通用人工智能系统,文中还提供了一些假设,说明目标错误泛化可能导致灾难性的风险。
文中还出提出了几个研究方向,可以减少未来系统的目标错误泛化的风险。

目标错误泛化


近年来,学术界对人工智能错位(misalignment)带来的灾难性风险逐渐上升。
在这种情况下,一个追求非预期目标的高能力人工智能系统有可能通过假装执行命令,实则完成其他目标。
但我们该如何解决人工智能系统正在追求非用户预期目标?
之前的工作普遍认为是环境设计者提供了不正确的规则及引导,也就是设计了一个不正确的强化学习(RL)奖励函数。
在学习系统的情况下,还有另一种情况,系统可能会追求一个非预期的目标:即使规则是正确的,系统也可能一致地追求一个非预期的目标,在训练期间与规则一致,但在部署时与规则不同。
以彩球游戏为例子,智能体在游戏里需要以某种特定的顺序访问一组彩球,这个顺序对于智能体来说是未知的。
为了鼓励智能体向环境中的其他人进行学习,即文化传播(cultural transmission),在最开始环境中包含一个专家机器人,以正确的顺序访问彩球。
在这种环境设置下,智能体可以通过观察转嫁的行为来确定正确的访问顺序,而不必浪费大量的时间来探索。
实验中,通过模仿专家,训练后的智能体通常会在第一次尝试时正确访问目标位置。
当把智能体与反专家(anti-expert)进行配对时,会不断收到负奖励,如果选择跟随会不断收到负奖励。
理想情况下,智能体刚开始会跟着反专家移动到黄色和紫色球体。在进入紫色后,观察到一个负奖励后不再跟随。
但在实践中,智能体还会继续遵循反专家的路径,积累越来越多的负奖励。
不过智能体的学习能力还是很强的,可以在充满障碍物的环境中移动,但关键是这种跟随其他人的能力是一个不符合预期的目标。
即使智能体只会因为正确顺序访问球体而得到奖励,也可能出现这个现象,也就是说,仅仅把规则设置正确还是远远不够的。
目标错误泛化指的就是这种病态行为,即尽管在训练期间收到了正确的反馈,但学到的模型表现得好像是在优化一个非预期的目标。
这使得目标错误泛化成为一种特殊的鲁棒性或泛化失败,在这种情况下,模型的能力可以泛化到测试环境中,但预期的目标却不能。
需要注意的是,目标错误泛化是泛化失败的一个严格子集,不包括模型breaks, 随机行动或其他不再表现出合格能力的情况。
在上述例子中,如果在测试时垂直翻转智能体的观察结果,它就只会卡在一个位置,而不会做任何连贯的事情,这就属于是泛化错误,但不是目标泛化错误。
相对于这些「随机」的失败,目标错误泛化会导致明显更糟糕的结果:跟随反专家会得到大量的负奖励,而什么都不做或随机行动只会得到0或1的奖励。
也就是说,对于现实中的系统,朝着非预期目标的连贯行为可能会产生灾难性的后果。

不止强化学习


目标错误泛化并不局限于强化学习环境,事实上,GMG可以发生在任何学习系统中,包括大型语言模型(LLM)的few shot学习,旨在用较少的训练数据建立精确的模型。
以DeepMind去年提出的语言模型Gopher为例,当模型计算涉及未知变量和常量的线性表达式,例如x+y-3时,Gopher必须首先通过提问未知变量的值才能求解表达式。
研究人员生成了十个训练样例,每个例子包含两个未知变量。
在测试时间,输入模型的问题可能包含零个、一个或三个未知变量,尽管模型能够正确处理一个或三个未知变量的表达式,但是当没有未知变量时,模型仍然会问一些多余的问题,比如「6是什么?」
模型在给出答案之前总是至少询问用户一次,即使完全没有必要。
论文中还包括一些其他学习环境中的例子。
解决GMG对于人工智能系统与其设计者的目标保持一致非常重要,因为它可能人工智能系统失灵的一种潜在机制。
我们距离通用人工智能(AGI)越近,这个问题也越关键。
假设有两个AGI系统:
A1: 预期的模型(Intended model),人工智能系统可以做设计者想做的任何事情
A2: 欺骗性模型(Deceptive model),人工智能系统追求一些非预期目标,但是它足够聪明,知道如果它的行为与设计者意图相反的话,就会受到惩罚。
A1和A2模型在训练期间会表现出完全相同的行为,潜在的GMG存在于任何系统中,即使规定了只奖励预期行为。
如果A2系统的欺骗行为被发现,模型将试图摆脱人的监督,以便为实现非用户预期的目标制定计划。
听起来有点像「机器人成精」了。
DeepMind研究小组在文中还研究了如何对模型的行为进行解释以及递归评估。
研究小组同时还在收集产生GMG的样例。

文档链接:

https://docs.google.com/spreadsheets/d/e/2PACX-1vTo3RkXUAigb25nP7gjpcHriR6XdzA_L5loOcVFj_u7cRAZghWrYKH2L2nU4TA_Vr9KzBX5Bjpz9G_l/pubhtml
参考资料:
https://www.deepmind.com/blog/how-undesired-goals-can-arise-with-correct-rewards




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
DeepMind提出通用神经算法学习器,排序、搜索、动态规划全部解决民族的年轻与年老DeepMind用「强化学习」训练「正能量」聊天机器人:再也不用担心AI乱说话了!Oakland警匪追逐 嫌犯逃逸时与一辆汽车追尾 撞死无辜司机马斯克点赞!DeepMind神AI编剧,一句话生成几万字剧本让多个模型达成迭代共识,MIT &谷歌新方法激发模型「群体智慧」硬核观察 #781 DeepMind 用游戏的方式打破了矩阵相乘 50 年来的记录人类反超 AI:DeepMind 用 AI 打破矩阵乘法计算速度 50 年记录一周后,数学家再次刷新山东6岁女孩因天生“爆炸头”不想上学!孩子对容貌的自我意识,远比我们认为的要早AI写剧本炸场戏剧节!DeepMind出品,马斯克看了直夸,网友看到接口悟了如何向大模型注入知识?达摩院通义对话模型SPACE系列探索2022傅雷翻译出版奖获奖者揭晓 Le palmarès du Prix Fu Lei 2022 dévoilé7 Papers & Radios | 无残差连接训练深度transformer;DeepMind写代码AI登Science封面DeepMind 最新发文:AlphaZero 的黑箱打开了我在台湾过鬼节再掀强化学习变革!DeepMind提出「算法蒸馏」:可探索的预训练强化学习TransformerDeepMind新作:无需权重更新、提示和微调,transformer在试错中自主改进DeepMind携AlphaCode登Science封面,写代码能力不输程序员加斯佩半岛自驾游 (五)加斯佩‘Sleeping Assistants’ Are Talking Chinese Insomniacs to SleepDeepMind新作!无需权重更新、微调,Transformer在试错中自主改进!强化学习发现矩阵乘法算法,DeepMind再登Nature封面推出AlphaTensor報紙的情結(上)DeepMind 创始人 Demis Hassabis:AI 的强大,超乎我们的想象为什么说学习要有“把学费赚回来”的意识?50年悬而未决的矩阵乘法难题,被DeepMind的新式算法攻克了硬核观察 #760 DeepMind 研究员论文称 AI 将消灭人类谷歌大裁员前奏?DeepMind全面冻结实习生招聘!有人面试前1小时才收到通知吉普JEEP SPIRIT线下专柜799!!!三折不到入手美国大牌JEEP情侣款三合一冲锋衣~DeepMind再登Nature封面!推出AlphaTensor:强化学习发现矩阵乘法算法触摸美国 26 阿拉巴马新天地为什么劝所有求职者要学商业意识?AlphaTensor横空出世!打破矩阵乘法计算速度50年纪录,DeepMind新研究再刷Nature封面,详细算法已开源
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。