Redian新闻
>
清华、华为等提出iVideoGPT:专攻交互式世界模型

清华、华为等提出iVideoGPT:专攻交互式世界模型

公众号新闻
机器之心报道
机器之心编辑部
iVideoGPT,满足世界模型高交互性需求。
近年来,生成模型取得了显著进展,其中视频生成正在成为一个新的前沿领域。这些生成视频模型的一个重要应用是,在多样化的互联网规模数据上以无监督方式学习,用于构建预测世界模型。这些世界模型有望积累关于世界如何运作的常识性知识,从而能够基于智能体的行为预测潜在的未来结果。 

通过利用这些世界模型,采用基于强化学习的智能体可以在世界模型中进行想象、推理和规划,从而在现实世界中通过少量试验就能更安全、更有效地获得新技能。

尽管生成模型和世界模型有着基本的联系,但用于视频生成的生成模型和用于智能体学习的世界模型的发展之间仍然存在显著的差距。主要挑战之一是如何在交互性和可扩展性之间取得最佳平衡。

在基于模型的强化学习领域,世界模型主要使用循环网络架构。这种设计允许在每一步中基于动作传递观察或潜在状态,从而促进交互行为学习。然而,这些模型大多专注于游戏或模拟环境,数据简单,并且对大规模复杂的 in-the-wild 数据进行建模的能力有限。

相比之下,互联网规模的视频生成模型可以合成逼真的长视频,这些视频可以通过文本描述或未来动作序列进行控制。虽然这样的模型允许高层次的、长期的规划,但它们的轨迹级交互性并没有为智能体提供足够的粒度来有效地学习精确的行为作为基本技能。

来自清华大学、华为诺亚方舟实验室、天津大学的研究者提出了 iVideoGPT(Interactive VideoGPT),这是一个可扩展的自回归 Transformer 框架,它将多模态信号(视觉观察、动作和奖励)集成到一系列 token 中,通过预测下一个 Token 使智能体能够进行交互体验。

iVideoGPT 采用新颖的压缩 tokenization 技术,可有效离散高维视觉观察。利用其可扩展架构,研究者能够在数百万人类和机器人操作轨迹上对 iVideoGPT 进行预训练,从而建立一个多功能基础,可用作各种下游任务的交互式世界模型。该研究促进了交互式通用世界模型的发展。


  • 论文地址:https://arxiv.org/pdf/2405.15223
  • 论文标题:iVideoGPT: Interactive VideoGPTs are Scalable World Models

方法

在这一部分,研究团队介绍了一种可扩展的世界模型架构 ——iVideoGPT,其具有极高的灵活性,能够整合多模态信息,包括视觉观察、动作、奖励以及其他潜在的输入。

iVideoGPT 的核心包括一个压缩 tokenizer,用于离散化视频帧,以及一个自回归 transformer,用于预测后续 token。通过在多样化的视频数据上进行预训练,该模型可以获得广泛的世界知识,然后有效地迁移到下游任务中。


架构

压缩 tokenization。Transformer 在处理离散 token 序列方面表现特别出色。VQGAN 是一种常用的视觉 tokenizer,用于将原始像素转换为离散 token。研究者提出用一种由双编码器和解码器 {(E_c, D_c),(E_p, D_p)} 组成的新型条件 VQGAN 对视频进行 token 化。

如图 3a 所示,初始上下文帧包含丰富的上下文信息,通过 N 个 token 独立地进行 token 化和重构:


相比之下,由于上下文帧和未来帧之间存在时间冗余,只有必要的变化信息如移动对象的位置和姿态,才需要被编码。上述过程是通过使用条件编码器和解码器实现的:


研究人员通过在多尺度特征图之间使用交叉注意力来实现条件机制。总的来说,tokenizer 是通过以下目标进行训练的:


该研究提出的 tokenization 主要有两个好处:

  • 首先,它显著减少了 token 化后视频的序列长度,该长度随帧数的增加而线性增长,但增长率 n 要小得多;
  • 其次,通过条件编码,预测后续 token 的 transformer 可以更容易地保持上下文的时间一致性,并专注于建模必要的动态信息。

Transformer 的可交互预测。Token 化后,视频被展平成一系列 token:


长度为特殊的 slot token [S] 被插入以划定帧边界,并促进额外低维模态(如动作)的融合。如图 3b 所示,一个类似 GPT 的自回归 transformer 被用于通过逐帧生成 next-token 来进行交互式视频预测。在这项工作中,该团队使用了 GPT-2 的模型大小,但采用了 LLaMA 架构,以便利用 LLM 架构的最新创新,如旋转位置嵌入。

预训练 

大语言模型可以通过 next-word 预测以自监督的方式从互联网文本中获得广泛的知识。同样,世界模型的无动作(action-free)视频预训练范式将视频预测作为预训练目标,为 LLM 缺乏的物理世界知识提供互联网规模的监督。

研究人员在这一通用目标上预训练 iVideoGPT,应用交叉熵损失来预测后续视频 token:


预训练数据。虽然互联网上有大量视频可用,但由于计算限制,研究人员特别为机器人操作领域预训练了 iVideoGPT。他们利用来自 Open X-Embodiment(OXE)数据集和 Something-Something v2(SSv2)数据集的 35 个数据集的混合,共计 150 万条轨迹。 

微调

动作条件与奖励预测。该团队的架构被设计为灵活地整合额外模态以学习交互式世界模型,如图 3b 所示。动作通过线性投影并添加到 slot token 嵌入中进行整合。对于奖励预测,他们没有学习独立的奖励预测器,而是在每个观察的最后一个 token 的隐藏状态上添加了一个线性头(linear head)。

这种多任务学习方法可以增强模型对任务相关信息的关注,从而提高控制任务的预测准确性。他们在方程式(3)的交叉熵损失之外,还使用了均方误差损失进行奖励预测。

Tokenizer 适应。研究团队选择更新完整模型,包括 tokenizer,以适应下游任务,并发现这一策略比参数高效的微调方法更有效。

很少有文献探讨将 VQGAN tokenizer 用于特定领域的数据。在这项工作中,由于 tokenization 将动态信息与上下文条件解耦,并假设虽然此模型可能在下游任务中遇到未见过的对象,如不同类型的机器人,但 transformer 从多样化场景中学到的基本物理知识 —— 如运动和交互是共享的。

这一假设得到了实验的支持,他们将 iVideoGPT 从混合预训练数据迁移到未见过的 BAIR 数据集,其中预训练的 transformer 可以零样本泛化预测自然运动,仅需对未见过的机器人抓手的 tokenizer 进行微调(见图 7)。这一特性对于将类似 GPT 的 transformer 扩展到大型尺寸尤为重要,能够在保持 transformer 完整的同时实现跨领域的轻量级对齐。


实验

如表 1 所示,与 SOTA 方法相比,iVideoGPT 展现出了具有竞争力的性能,同时在其架构中实现了交互性和可扩展性。虽然初步实验是在 64×64 的低分辨率下进行的,但 iVideoGPT 可以轻松扩展到 RoboNet 的 256×256。


有关定性结果,请参阅图 9。


图 4 显示了 iVideoGPT 与基准模型相比的成功率。iVideoGPT 在两个 RoboDesk 任务中大幅优于所有基线,并实现了与最强模型 SVG' 相当的平均性能。


图 6 显示基于模型的算法不仅比无模型算法提高了样本效率,而且达到或超过了 DreamerV3 的性能。


接下来该研究分析了大规模预训练 iVideoGPT 在未见过的 BAIR 数据集上的零样本视频预测能力。有趣的是,研究者在图 7 的第二行观察到,iVideoGPT 在没有微调的情况下,预测了一个机器人抓手的自然运动 —— 尽管与预训练数据集不同。这表明,尽管由于预训练数据的多样性不足,模型在完全未见过的机器人上的零样本泛化能力有限,但它有效地将场景上下文与运动动态分离开来。相比之下,使用经过适应的 tokenizer,未经过微调的 Transformer 成功地迁移了预训练知识,并在第三行预测了新型机器人的运动,提供了与第四行中完全微调的 Transformer 相似的感知质量,定量结果见图 8a。 


了解更多结果,请参考原论文。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
复旦邱锡鹏教授讲述MOSS 2 研发进展:如何实现世界模型?用GPT-4纠错GPT-4!OpenAI推出CriticGPT模型;谷歌Gemma 2发布,与第一代相比性能更高丨AIGC日报GPT-4不是世界模型,LeCun双手赞同!ACL力证LLM永远无法模拟世界CVPR 2024 | 中大哈佛等提出全新训练方法CLoT,探究大模型幽默创新力让机器准确「看懂」手物交互动作,清华大学等提出GeneOH Diffusion方法AAAI 2024 | 上交等提出自适应间距强化对比学习,增强多个模型的分类能力CVPR 2024 | 加快199倍!清华和哈佛提出LangSplat:3D语义高斯泼溅8B文字多模态大模型指标逼近GPT4V,字节、华师、华科联合提出TextSquare通用世界模型问世:不学习就能生成新领域视频,可实时控制回国杂记(2403)难忘农垦中学那些人和事这家世界模型公司发布中国版Sora级视频生成大模型,走向世界模型打造新一代数据引擎鹅厂造了个AI翻译公司:专攻网络小说,自动适配语言风格,真人和GPT-4看了都说好首个开源世界模型!百万级上下文,长视频理解吊打GPT-4,UC伯克利华人一作CVPR‘24全程满分+最佳论文候选!上交大港中文等提出神经场网格模型三大定理Sora是世界模拟器吗?全球首篇综述全面解析通用世界模型中国版Sora震撼登场,原生16秒直出超清视频!国产黑马火了,世界模型签约多个大客户神秘GPT模型引爆社区,GPT-4.5、GPT-5谣言满天飞,奥特曼在线围观搭建乐高:消极自由的理式世界,一叶一世界的赛博禅修世界模型也扩散!训练出的智能体竟然不错从莫言说他的母亲想到的~复旦邱锡鹏教授讲述 MOSS 2 研发进展:如何实现世界模型?LeCun新作:分层世界模型,数据驱动的人型机器人控制CVPR 2024 | 无参数无训练也能大幅涨点!港城大等提出全新小样本3D分割模型大学就开始创业,90后北师大校友团队要做最好的交互式3D工具平台,已获百万订单ChatGPT 之父最新专访:发现 GPT-4o 惊喜用途,下一代模型可能不是 GPT-5从文字模型到世界模型!Meta新研究让AI Agent理解物理世界个人感慨之126 谁是傻子?牛津大学等提出:时间序列和时空数据的扩散模型最新综述专治大模型说胡话,精确率100%!华科等提出首个「故障token」检测/分类方法“GPT-5”发布时间曝光!GPT-3是幼儿,GPT-4像高中生,新一代大模型将达博士水平万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化离世界模型更近一步!Meta开源OpenEQA,评估AI Agent情景理解能力OCR小模型仍有机会!华科等提出VIMTS:零样本视频端到端识别新SOTA《春姑娘》&《枕着光的她》English Five Days
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。