Redian新闻
>
从20亿数据中学习物理世界,基于Transformer的通用世界模型成功挑战视频生成

从20亿数据中学习物理世界,基于Transformer的通用世界模型成功挑战视频生成

公众号新闻
允中 发自 凹非寺
量子位 | 公众号 QbitAI

建立会做视频的世界模型,也能通过Transformer来实现了!

来自清华和极佳科技的研究人员联手,推出了全新的视频生成通用世界模型——WorldDreamer。

它可以完成自然场景和自动驾驶场景多种视频生成任务,例如文生视频、图生视频、视频编辑、动作序列生视频等。

据团队介绍,通过预测Token的方式来建立通用场景世界模型,WorldDreamer是业界首个。

它把视频生成转换为一个序列预测任务,可以对物理世界的变化和运动规律进行充分地学习。

可视化实验已经证明,WorldDreamer已经深刻理解了通用世界的动态变化规律。

那么,它都能完成哪些视频任务,效果如何呢?

支持多种视频任务

图像生成视频(Image to Video)

WorldDreamer可以基于单一图像预测未来的帧。

只需首张图像输入,WorldDreamer将剩余的视频帧视为被掩码的视觉Token,并对这部分Token进行预测。

如下图所示,WorldDreamer具有生成高质量电影级别视频的能力。

其生成的视频呈现出无缝的逐帧运动,类似于真实电影中流畅的摄像机运动。

而且,这些视频严格遵循原始图像的约束,确保帧构图的显著一致性。

文本生成视频(Text to Video)

WorldDreamer还可以基于文本进行视频生成。

仅仅给定语言文本输入,此时WorldDreamer认为所有的视频帧都是被掩码的视觉Token,并对这部分Token进行预测。

下图展示了WorldDreamer在各种风格范式下从文本生成视频的能力。

生成的视频与输入语言无缝契合,其中用户输入的语言可以塑造视频内容、风格和相机运动。

视频修改(Video Inpainting)

WorldDreamer进一步可以实现视频的inpainting任务。

具体来说,给定一段视频,用户可以指定mask区域,然后根据语言的输入可以更改被mask区域的视频内容。

如下图所示,WorldDreamer可以将水母更换为熊,也可以将蜥蜴更换为猴子,且更换后的视频高度符合用户的语言描述。

视频风格化(Video Stylization)

除此以外,WorldDreamer可以实现视频的风格化。

如下图所示,输入一个视频段,其中某些像素被随机掩码,WorldDreamer可以改变视频的风格,例如根据输入语言创建秋季主题效果。

基于动作合成视频(Action to Video)

WorldDreamer也可以实现在自动驾驶场景下的驾驶动作到视频的生成。

如下图所示,给定相同的初始帧以及不同的驾驶策略(如左转、右转),WorldDreamer可以生成高度符合首帧约束以及驾驶策略的视频。

那么,WorldDreamer又是怎样实现这些功能的呢?

用Transformer构建世界模型

研究人员认为,目前最先进的视频生成方法主要分为两类——基于Transformer的方法和基于扩散模型的方法。

利用Transformer进行Token预测可以高效学习到视频信号的动态信息,并可以复用大语言模型社区的经验,因此,基于Transformer的方案是学习通用世界模型的一种有效途径。

而基于扩散模型的方法难以在单一模型内整合多种模态,且难以拓展到更大参数,因此很难学习到通用世界的变化和运动规律。

而当前的世界模型研究主要集中在游戏、机器人和自动驾驶领域,缺乏全面捕捉通用世界变化和运动规律的能力。

所以,研究团队提出了WorldDreamer来加强对通用世界的变化和运动规律的学习理解,从而显著增强视频生成的能力。

借鉴大型语言模型的成功经验,WorldDreamer采用Transformer架构,将世界模型建模框架转换为一个无监督的视觉Token预测问题。

具体的模型结构如下图所示:

WorldDreamer首先使用视觉Tokenizer将视觉信号(图像和视频)编码为离散的Token。

这些Token在经过掩蔽处理后,输入给研究团队提出的Sptial Temporal Patchwuse Transformer(STPT)模块。

同时,文本和动作信号被分别编码为对应的特征向量,以作为多模态特征一并输入给STPT。

STPT在内部对视觉、语言、动作等特征进行充分的交互学习,并可以预测被掩码部分的视觉Token。

最终,这些预测出的视觉Token可以用来完成各种各样的视频生成和视频编辑任务。

值得注意的是,在训练WorldDreamer时,研究团队还构建了Visual-Text-Action(视觉-文本-动作)数据的三元组,训练时的损失函数仅涉及预测被掩蔽的视觉Token,没有额外的监督信号。

而在团队提出的这个数据三元组中,只有视觉信息是必须的,也就是说,即使在没有文本或动作数据的情况下,依然可以进行WorldDreamer的训练。

这种模式不仅降低了数据收集的难度,还使得WorldDreamer可以支持在没有已知或只有单一条件的情况下完成视频生成任务。

研究团队使用大量数据对WorldDreamer进行训练,其中包括20亿经过清洗的图像数据、1000万段通用场景的视频、50万段高质量语言标注的视频、以及近千段自动驾驶场景视频。

团队对10亿级别的可学习参数进行了百万次迭代训练,收敛后的WorldDreamer逐渐理解了物理世界的变化和运动规律,并拥有了各种的视频生成和视频编辑能力。

论文地址:
https://arxiv.org/abs/2401.09985
项目主页:
https://world-dreamer.github.io/

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
个人感慨之四十九Arxiv最热论文推荐:揭秘Transformer新身份、谷歌VLM蒸馏、复旦LEGO模型OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱Robot Transformers 是什么 Transformer?吃喝嫖赌抽,五毒中哪一样是最毒?AI 大神首次承认参与神秘模型 Q* 研发,把 OpenAI 吓坏了 | Transformer 作者专访AI测出你几岁死亡?Transformer「算命」登Nature子刊,成功预测意外死亡咀外文嚼汉字(297)日本人的 “绝活”(1)“部活”挑战 Transformer 霸权? Yan 架构竟以半价成本实现百万级参数大模型简化版Transformer来了!网友:年度论文我的父亲孙梅生教授Hyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%Mamba可以替代Transformer,但它们也能组合起来使用华为改进Transformer架构!盘古-π解决特征缺陷问题,同规模性能超LLaMACNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术Transformer挑战者出现!斯坦福CMU联合团队,开源模型及代码,公司已创办现场围观 | 黄仁勋对话Transformer论文作者:世界该给Tranformer翻篇了五倍吞吐量,性能全面包围Transformer:新架构Mamba引爆AI圈颠覆Transformer霸权!CMU普林斯顿推Mamba新架构,解决致命bug推理速度暴增5倍颠覆Transformer!新架构Mamba引爆AI圈!Transformer的无限之路:位置编码视角下的长度外推综述Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性idea我在Performer中发现了Transformer-VQ的踪迹那些挑战Transformer的模型架构都在做些什么复刻Sora的通用视频生成能力,开源多智能体框架Mora来了Web ML 库 Transformers.js 提供文本转语音功能徐刍:数字空间坠落的流星ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞MIT斯坦福Transformer最新研究:过度训练让中度模型「涌现」结构泛化能力你没有看过的全新版本,Transformer数学原理揭秘Transformer变革3D建模!MeshGPT来了!效果惊动专业建模师。。。开源日报 | 华为腾讯相爱相杀;Redis不再 “开源”;老黄集齐Transformer论文七大作者;“中国大模型第一城”争夺战矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见Transformer仍是2024发论文神器纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。