Redian新闻
>
视觉RLHF要来了?谷歌复用30年前经典算法,CV引入强化学习

视觉RLHF要来了?谷歌复用30年前经典算法,CV引入强化学习

公众号新闻


©作者 | 机器之心编辑部

来源 | 机器之心



模型预测和预期使用之间存在错位,不利于 CV 模型的部署,来自谷歌等机构的研究者用强化学习技术的奖励函数,从而改善了计算机视觉任务。


ChatGPT 的火爆有目共睹,而对于支撑其成功背后的技术,监督式的指令微调以及基于人类反馈的强化学习至关重要。这些技术也在逐渐扩展到其他 AI 领域,包括计算机视觉(CV)。
我们知道,在处理计算机视觉中的复杂输出时,成功的主要标准不在于模型对训练目标的优化程度,而在于预测能力与任务的吻合程度,即模型在预期用途上的表现效果。
为了追求这种一致性,有研究者在模型架构、数据、优化、采样、后处理等方面进行了一些改进。例如,在物体检测任务中,研究人员使用了 NMS(non-maximum suppression )、基于集合的全局损失(set-based global loss)以及改变输入数据来获得在测试时具有改进行为的模型。虽然这些方法带来了显著的收益,但它们往往只对特定任务有用,仅仅是间接地对任务风险进行了优化。
不仅 CV,包括自然语言处理(NLP)、强化学习(RL)等领域也在广泛研究这一现象。在这些领域中,对于目标不太明确的任务,如翻译或生成摘要,制定优化目标非常困难。在处理这类问题时,一种流行的方法是学习模仿例子的输出,然后进行强化学习,使模型与奖励函数保持一致使用这种方法,NLP 领域产生了令人兴奋的结果,该方法使用大型预训练语言模型和由人类反馈定义的奖励来处理原本难以指定的任务。
此外,同样的方法被广泛用于图像字幕任务中,其中 CIDEr(Vedantam 等人 2015 年提出)被用来作为奖励。尽管如此,据了解,奖励优化以前还没有在(非文本)计算机视觉任务中进行过探索。
近日,谷歌大脑团队的研究者在论文《Tuning computer vision models with task rewards》中证明了,使用 REINFORCE 算法(Williams 于 1992 提出)来调整(Tuning)具有奖励函数的预训练模型可以开箱即用地用于各种计算机视觉任务
其实许多关于强化学习任务的研究都会提及 Williams 的 REINFORCE 算法,可见这个算法的重要性。可以说 REINFORCE 算法是策略梯度乃至强化学习的典型代表。

论文标题:

Tuning computer vision models with task rewards

论文链接:

https://arxiv.org/abs/2302.08242


图 1 展示了一些关键结果,主要包括目标检测、全景分割和图像着色的奖励优化带来的定量和定性改进。该研究所提出的方法在处理各种 CV 任务上简单而有效,证明了它的多功能性和适应性。尽管本文主要采用评估指标形式的奖励,但这些初步结果显示了该方法用来优化计算机视觉模型也不失为一种有效途径,这些模型具有更复杂和更难指定的奖励,例如人的反馈或整体系统性能。

推特网友对这篇文章给了一个比较全面的总结,即本文实现的功能是使用 RL 调整预训练视觉模型。研究的动因是受到 LLM 强化学习成功的启发;其效果是在目标检测、全景分割等方面性能大幅提升。并表示,这项研究可能是实现视觉 RLHF (Reinforcement Learning from Human Feedback)的有效途径。

▲ 图源:https://twitter.com/johnjnay/status/1627009121378598912


奖励


在不丧失泛化性的情况下,该研究将 CV 任务描述为学习一个函数的过程,该函数将输入 x(即图像)映射到输出 (文本 token 序列、bounding box 序列等)。该研究旨在学习以 θ 为参数的条件分布 ,使奖励函数 R 最大化。用抽象的公式来形容,就是本文要解决以下优化问题。

问题有了,接下来就是怎么解决了,本文分两步走:首先用最大似然估计对模型进行预训练;然后使用 REINFORCE 算法对模型进行 Tuning 。下面我们看看这两步的具体过程:

最大似然预训练
首先使用最大似然原理估计参数 θ 并捕获训练数据的分布。实现这一目标可采用梯度下降算法,该算法通过最大化训练数据的 log-likelihood  来实现。算法 1 和图 2 描述了 MLE(最大似然估计)优化步骤,这是训练模型最常用的方法。完成这一步将得到 MLE 模型。

REINFORC算法将奖励最大化 
为了更好的优化 MLE 模型以适应任务风险,还需要最大化奖励函数。对于给定输入 x,该研究利用 REINFORCE 算法来估计对给定 x 期望奖励的梯度,公式如下所述:

算法 2 提供了伪代码,图 3 说明了该过程:



实验结果

接下来我们看看本文提出的方法在视觉任务上的表现。

全景分割

如下表 1 所示,Tuning 过程显著改善了 MLE 模型。视觉检查(visual inspection)后的结果表明,Tuning 后的模型在避免不连贯预测方面更好,特别是对于小尺度物体,可参见图 1。

目标检测
表 2 显示,通过优化,该研究将原始 MLE 模型的 mAP 分数从 39.2% 大幅提高到 54.3%。在 Pix2seq 中,具有稍大的 1333×1333 分辨率和许多启发式的相同大小的 ViT-B 模型达到了 47.1%。当使用更大的 ViT-L 主干时,Pix2seq 报告的最佳目标检测结果为 50.0%。
上色

图 4 给出的定性结果清楚地表明,新模型始终能产生更丰富多彩的图像。

图像描述

表 3 结果表明,应用所提出的方法可以改进 MLE 模型,这与先前文献中的观察结果一致,证明了该方法针对特定任务风险进行 tuning 的有效性。


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
强化学习再登Nature封面,自动驾驶安全验证新范式大幅减少测试里程最新出炉!ICLR 2023强化学习领域18篇论文盘点​财报解读丨谷歌:云服务收入强劲增长娄岩一周诗词五首OpenAI新老员工对决!「叛徒」团队发布Claude模型:ChatGPT的RLHF过时啦!全年前装搭载率首破30%,从环视、融合泊车再到域控复用CV不存在了?Meta发布「分割一切」AI 模型,CV或迎来GPT-3时刻零门槛复现ChatGPT:预训练模型数据集直接用,包含完整RLHF流程,在线可体验词汇表规模太大强化学习训不动怎么办?降维让你重拾信心!联邦GNN综述与经典算法介绍CV发论文的机会来了!南洋理工项目招生(仅限深度学习,AI,机器学习,迁移学习方向)岁末文学城,竖起一道哭墙!Insight Time分享 | 基于序列决策和动作依赖的多智能体强化学习算法谷歌复用30年前经典算法,CV引入强化学习,网友:视觉RLHF要来了?64进阶66,女王般霸气无人敌强化学习也有基础模型了!DeepMind重磅发布AdA,堪比人类的新环境适应能力解读 ChatGPT 背后的技术重点:RLHF、IFT、CoT、红蓝对抗南洋理工发布量化交易大师TradeMaster,涵盖15种强化学习算法ChatGPT爆火之后,视觉研究者坐不住了?谷歌将ViT参数扩大到220亿ChatGPT破圈的「秘密武器」:详解RLHF如何影响人类社会!人手一个ChatGPT!微软DeepSpeed Chat震撼发布,一键RLHF训练千亿级大模型超参数科技招聘:强化学习研究员、深度学习工程师、后台开发工程师等RLHF魔法的衍生研究方向强化学习中的Transformer发展到哪一步了?清北联合发布TransformRL综述CV不存在了?Meta发布"分割一切"AI模型,CV或迎来GPT-3时刻!强化学习有哪些方向更容易发论文?全民催眠曲博士申请 | 纽约州立大学布法罗分校邹韶峰老师招收强化学习方向全奖博士生耗时两年,谷歌用强化学习打造23个机器人帮助垃圾分类无需RLHF就能对齐人类,性能比肩ChatGPT!华人团队提出袋熊Wombat模型AI降维打击人类画家,文生图引入ControlNet,深度、边缘信息全能复用谷歌新作:计算机视觉遇见强化学习,复用30年前经典算法!邓小平向中央保证《永不翻案》清北联合出品!一篇Survey整明白「Transformer+强化学习」的来龙去脉玩不起RLHF?港科大开源高效对齐算法RAFT「木筏」,GPT扩散模型都能用
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。