Redian新闻
>
谷歌复用30年前经典算法,CV引入强化学习,网友:视觉RLHF要来了?

谷歌复用30年前经典算法,CV引入强化学习,网友:视觉RLHF要来了?

公众号新闻

机器之心报道

机器之心编辑部

模型预测和预期使用之间存在错位,不利于 CV 模型的部署,来自谷歌等机构的研究者用强化学习技术的奖励函数,从而改善了计算机视觉任务。

ChatGPT 的火爆有目共睹,而对于支撑其成功背后的技术,监督式的指令微调以及基于人类反馈的强化学习至关重要。这些技术也在逐渐扩展到其他 AI 领域,包括计算机视觉(CV)。

我们知道,在处理计算机视觉中的复杂输出时,成功的主要标准不在于模型对训练目标的优化程度,而在于预测能力与任务的吻合程度,即模型在预期用途上的表现效果。

为了追求这种一致性,有研究者在模型架构、数据、优化、采样、后处理等方面进行了一些改进。例如,在物体检测任务中,研究人员使用了 NMS(non-maximum suppression )、基于集合的全局损失(set-based global loss)以及改变输入数据来获得在测试时具有改进行为的模型。虽然这些方法带来了显著的收益,但它们往往只对特定任务有用,仅仅是间接地对任务风险进行了优化。

不仅 CV,包括自然语言处理(NLP)、强化学习(RL)等领域也在广泛研究这一现象。在这些领域中,对于目标不太明确的任务,如翻译或生成摘要,制定优化目标非常困难。在处理这类问题时,一种流行的方法是学习模仿例子的输出,然后进行强化学习,使模型与奖励函数保持一致。使用这种方法,NLP 领域产生了令人兴奋的结果,该方法使用大型预训练语言模型和由人类反馈定义的奖励来处理原本难以指定的任务。

此外,同样的方法被广泛用于图像字幕任务中,其中 CIDEr(Vedantam 等人 2015 年提出)被用来作为奖励。尽管如此,据了解,奖励优化以前还没有在(非文本)计算机视觉任务中进行过探索。

近日,谷歌大脑团队的研究者在论文《Tuning computer vision models with task rewards》中证明了,使用 REINFORCE 算法(Williams 于 1992 提出)来调整(Tuning)具有奖励函数的预训练模型可以开箱即用地用于各种计算机视觉任务

其实许多关于强化学习任务的研究都会提及 Williams 的 REINFORCE 算法,可见这个算法的重要性。可以说 REINFORCE 算法是策略梯度乃至强化学习的典型代表。


论文地址:https://arxiv.org/pdf/2302.08242v1.pdf

图 1 展示了一些关键结果,主要包括目标检测、全景分割和图像着色的奖励优化带来的定量和定性改进。该研究所提出的方法在处理各种 CV 任务上简单而有效,证明了它的多功能性和适应性。尽管本文主要采用评估指标形式的奖励,但这些初步结果显示了该方法用来优化计算机视觉模型也不失为一种有效途径,这些模型具有更复杂和更难指定的奖励,例如人的反馈或整体系统性能。


推特网友对这篇文章给了一个比较全面的总结,即本文实现的功能是使用 RL 调整预训练视觉模型。研究的动因是受到 LLM 强化学习成功的启发;其效果是在目标检测、全景分割等方面性能大幅提升。并表示,这项研究可能是实现视觉 RLHF (Reinforcement Learning from Human Feedback)的有效途径。
 
图源:https://twitter.com/johnjnay/status/1627009121378598912

奖励

在不丧失泛化性的情况下,该研究将 CV 任务描述为学习一个函数的过程,该函数将输入 x(即图像)映射到输出 y = [y_1, y_1,……, y_n](文本 token 序列、bounding box 序列等)。该研究旨在学习以 θ 为参数的条件分布 P (y|x, θ),使奖励函数 R 最大化。用抽象的公式来形容,就是本文要解决以下优化问题。


问题有了,接下来就是怎么解决了,本文分两步走:首先用最大似然估计对模型进行预训练;然后使用 REINFORCE 算法对模型进行 Tuning 。下面我们看看这两步的具体过程:

最大似然预训练

首先使用最大似然原理估计参数 θ 并捕获训练数据的分布。实现这一目标可采用梯度下降算法,该算法通过最大化训练数据的 log-likelihood来实现。算法 1 和图 2 描述了 MLE(最大似然估计)优化步骤,这是训练模型最常用的方法。完成这一步将得到 MLE 模型。



REINFORC 算法将奖励最大化 

为了更好的优化 MLE 模型以适应任务风险,还需要最大化奖励函数。对于给定输入 x,该研究利用 REINFORCE 算法来估计对给定 x 期望奖励的梯度,公式如下所述:


算法 2 提供了伪代码,图 3 说明了该过程:



实验结果

接下来我们看看本文提出的方法在视觉任务上的表现。

全景分割

如下表 1 所示,Tuning 过程显著改善了 MLE 模型。视觉检查(visual inspection)后的结果表明,Tuning 后的模型在避免不连贯预测方面更好,特别是对于小尺度物体,可参见图 1。


目标检测

表 2 显示,通过优化,该研究将原始 MLE 模型的 mAP 分数从 39.2% 大幅提高到 54.3%。在 Pix2seq 中,具有稍大的 1333×1333 分辨率和许多启发式的相同大小的 ViT-B 模型达到了 47.1%。当使用更大的 ViT-L 主干时,Pix2seq 报告的最佳目标检测结果为 50.0%。


上色

图 4 给出的定性结果清楚地表明,新模型始终能产生更丰富多彩的图像。


图像描述

表 3 结果表明,应用所提出的方法可以改进 MLE 模型,这与先前文献中的观察结果一致,证明了该方法针对特定任务风险进行 tuning 的有效性。


全面学习ChatGPT,机器之心准备了 89 篇文章合集

这是一份全面、系统且高质量的 ChatGPT 文章合集,我们筛选出来了 89 篇相关文章,设计了阅读框架与学习路径,大家可以根据自己的需求进行浏览与研读。合集内容包括:

  • ChatGPT 及 OpenAI  大事件时间轴

  • 概念·真正搞懂 ChatGPT:共 3 篇文章

  • 研究·GPT 家族更迭:共 16 篇文章

  • 八年·OpenAI 的历史与现在:共 13 篇文章

  • 干货·GPT 相关研究与技术:共 18 篇文章

  • 观点·专家谈 ChatGPT:共 8 篇文章

  • 行业·应用与探索:共 23 篇文章

  • 行业·同类产品:共 8 篇文章

点击阅读原文,开始学习ChatGPT。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
博士申请 | 纽约州立大学布法罗分校邹韶峰老师招收强化学习方向全奖博士生耗时两年,谷歌用强化学习打造23个机器人帮助垃圾分类AI降维打击人类画家,文生图引入ControlNet,深度、边缘信息全能复用​财报解读丨谷歌:云服务收入强劲增长春天先遣者,冬后一阳升联邦GNN综述与经典算法介绍强化学习也有基础模型了!DeepMind重磅发布AdA,堪比人类的新环境适应能力谷歌裁员1.2万人,CEO年薪达15亿,网友:“地表最强 CEO !”零门槛复现ChatGPT:预训练模型数据集直接用,包含完整RLHF流程,在线可体验《花开富贵》清北联合出品!一篇Survey整明白「Transformer+强化学习」的来龙去脉ChatGPT破圈的「秘密武器」:详解RLHF如何影响人类社会!CV发论文的机会来了!南洋理工项目招生(仅限深度学习,AI,机器学习,迁移学习方向)玩不起RLHF?港科大开源高效对齐算法RAFT「木筏」,GPT扩散模型都能用Insight Time分享 | 基于序列决策和动作依赖的多智能体强化学习算法CV不存在了?Meta发布「分割一切」AI 模型,CV或迎来GPT-3时刻人手一个ChatGPT!微软DeepSpeed Chat震撼发布,一键RLHF训练千亿级大模型南洋理工发布量化交易大师TradeMaster,涵盖15种强化学习算法强化学习中的Transformer发展到哪一步了?清北联合发布TransformRL综述我亲爱的爸爸在北京被新冠带走了AI设计蛋白质新方法登Science!利用强化学习,直接根据预想优化结构全年前装搭载率首破30%,从环视、融合泊车再到域控复用超参数科技招聘:强化学习研究员、深度学习工程师、后台开发工程师等RLHF魔法的衍生研究方向CV圈又炸了?小扎高调官宣DINOv2,分割检索无所不能,网友:Meta才是「Open」AI疫情总结,无奈和悲催CVPR 2023 论文分享会|精彩抢先看:视觉 + X(Visual + X)强化学习有哪些方向更容易发论文?CV不存在了?Meta发布"分割一切"AI模型,CV或迎来GPT-3时刻!OpenAI新老员工对决!「叛徒」团队发布Claude模型:ChatGPT的RLHF过时啦!谷歌新作:计算机视觉遇见强化学习,复用30年前经典算法!如何爱男人解读 ChatGPT 背后的技术重点:RLHF、IFT、CoT、红蓝对抗视觉RLHF要来了?谷歌复用30年前经典算法,CV引入强化学习最大的ViT来了!谷歌提出ViT-22B:视觉Transformer扩展到220亿参数
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。