Redian新闻
>
3D版Sora来了?UMass、MIT等提出3D世界模型,具身智能机器人实现新里程碑

3D版Sora来了?UMass、MIT等提出3D世界模型,具身智能机器人实现新里程碑

公众号新闻



  新智元报道  

编辑:LRS 好困
【新智元导读】具身基础模型突破2D,全新生成式视觉-语言-行动模型3D-VLA,在多项任务中显著提高了推理、多模态生成和规划的能力。


在最近的研究中,视觉-语言-动作(VLA,vision-language-action)模型的输入基本都是2D数据,没有集成更通用的3D物理世界。


此外,现有的模型通过学习「感知到动作的直接映射」来进行动作预测,忽略了世界的动态性,以及动作和动态之间的关系。


相比之下,人类在思考时会引入世界模型,可以描绘除对未来情景的想象,从而对下一步的行动进行规划。


为此,来自马萨诸塞州大学阿默斯特分校、MIT等机构的研究人员提出了3D-VLA模型,通过引入一类全新的具身基础模型(embodied foundation models),可以根据生成的世界模型无缝连接3D感知、推理和行动。


项目主页:https://vis-www.cs.umass.edu/3dvla/

论文地址:https://arxiv.org/abs/2403.09631


具体而言,3D-VLA构建在基于3D的大型语言模型(LLM)之上,并引入一组交互token来参与具身环境中。


为了将生成能力注入模型,淦创团队训练了一系列具身扩散模型,并将其对齐到LLM中以预测目标图像和点云。


为了对3D-VLA模型进行训练,通过从现有的机器人数据集中提取大量的3D相关信息来构建出一个大规模的3D具身指令数据集。


实验结果表明,3D-VLA显着提高了在具身环境中推理、多模态生成和规划的能力,展示出其在现实世界中的应用潜力。             


三维具身指令调整数据集(3D Embodied Instruction Tuning Dataset)


得益于互联网上数十亿规模的数据集,VLM在各种任务中表现出了非凡的性能,百万级的视频动作数据集也为机器人控制的具身VLM奠定了基础。


但当前的数据集大多不能在机器人操作中提供深度或3D标注和精确控制,需要包含3D空间推理和交互:如果没有3D信息,机器人很难理解和执行需要3D空间推理的命令,比如「把最远的杯子放在中间的抽屉里」。


为了弥补这一差距,研究人员构建了一个大规模的3D指令调优数据集,该数据集提供了足够的「3D相关信息」以及「相应的文本指令」以训练模型。


研究人员设计了一个pipeline从现有的具身数据集中提取3D语言动作对,获得点云、深度图、3D边界框、机器人的7D动作和文本描述的标注。


3D-VLA基础模型


3D-VLA是一个用于在具身环境(embodied environment)中进行三维推理、目标生成和决策的世界模型。



首先在3D-LLM之上构建主干网络,并通过添加一系列交互token来进一步增强模型与3D世界交互的能力;再通过预训练扩散模型并使用投影来对齐LLM和扩散模型,将目标生成能力注入3D-VLA


骨干网络


在第一阶段,研究人员按照3D-LLM的方法开发3D-VLA基础模型:由于收集到的数据集没有达到从头开始训练多模态LLM所需的十亿级规模,因此需要利用多视图特征生成3D场景特征,使得视觉特征能够无缝集成到预训练VLM中,不需要自适应。


同时,3D-LLM的训练数据集主要包括对象(objects)和室内场景,与具体设置不直接一致,所以研究人员选择使用BLIP2-PlanT5XL作为预训练模型。


在训练过程中,解冻token的输入和输出嵌入,以及Q-Former的权重。


交互tokens


为了增强模型对3D场景的理解与环境中的交互,研究人员引入了一组全新的交互tokens


首先,输入中加入了object tokens,包含解析句子中的对象名词(如<obj> a chocolate bar </obj> [loc tokens] on the table),这样模型就能更好地捕捉到被操作或提及的对象。


其次,为了更好地用语言表达空间信息,研究人员设计了一组位置token <loc0-255>,用 AABB 形式的六个标记来表示三维边界框。


第三,为了更好地进行动态编码,框架中引入了<scene></scene>来包含静态场景的嵌入:通过对场景token进行组合,3D-VLA 可以理解动态场景,并管理交错三维场景和文本的输入。


通过扩展代表机器人动作的专用标记集,进一步增强了该架构。机器人的动作有 7 个自由度,用 <aloc0-255>、<arot0-255> 和 <gripper0/1> 等离散token来表示手臂的预定绝对位置、旋转和抓手张开度,每个action由 <ACT SEP> token进行分隔。


注入目标生成能力


人类能够对场景的最终状态进行预先可视化(pre-visualize),以提升动作预测或决策的准确性,也是构建世界模型的关键方面;在初步实验中,研究人员还发现提供真实的最终状态可以增强模型的推理和规划能力。


但训练MLLM来生成图像、深度和点云并不简单:


首先,视频扩散模型并不是为具身场景量身定制的,比如Runway在生成「打开抽屉」的未来帧时,场景中会发生视图变化、对象变形、怪异的纹理替换以及布局失真等问题。


并且,如何将各种模态的扩散模型整合到一个单一的基础模型中仍然是一个难题。


所以研究人员提出的新框架,首先根据图像、深度和点云等不同形式对具体的扩散模型进行预训练,然后在对齐阶段将扩散模型的解码器对齐到3D-VLA的嵌入空间。



实验结果


3D-VLA是一个多功能的、基于3D的生成式世界模型,可以在3D世界中执行推理和定位、想象多模态目标内容,并为机器人操作生成动作,研究人员主要从三个方面对3D-VLA进行了评估:3D推理和定位、多模态目标生成和具身行动规划。


3D推理和定位


3D-VLA在语言推理任务上优于所有2D VLM方法,研究人员将其归因于3D信息的杠杆作用,3D信息为推理提供了更准确的空间信息。

 


此外,由于数据集中包含一组3D定位标注,3D-VLA学习定位相关对象,有助于模型更专注于关键对象进行推理。


研究人员发现3D-LLM在这些机器人推理任务中表现不佳,证明了在机器人相关的3D数据集上收集和训练的必要性。




并且3D-VLA在定位性能方面表现出明显优于2D基线方法,这一发现也为标注过程的有效性提供了令人信服的证据,有助于模型获得强大的3D定位能力。


多模态目标生成


与现有的零样本迁移到机器人领域的生成方法相比,3D-VLA在大多数指标方面实现了更好的性能,证实了使用「专门为机器人应用设计的数据集」来训练世界模型的重要性。



即使在与Instruct-P2P*的直接比较中,3D-VLA也始终性能更优,结果表明,将大型语言模型集成到3D-VLA中可以更全面、更深刻地理解机器人操作指令,从而提高目标图像生成性能。


此外,当从输入提示符中排除预测的边界框时,可以观察到性能略有下降,证实了使用中间预测边界框的有效性,可以帮助模型理解整个场景,允许模型将更多的注意力分配到给定指令中提到的特定对象,最终增强其想象最终目标图像的能力。



点云生成的结果对比中,具有中间预测边界框的3D-VLA性能最好,证实了在理解指令和场景的背景下结合大型语言模型和精确对象定位的重要性。


具身行动规划


3D-VLA在RLBench动作预测中的大多数任务中超过了基线模型的性能,显示了其具有规划能力。



值得注意的是,基线模型需要用到历史观察、对象状态和当前状态信息,而3D-VLA模型只通过开环控制执行。




此外,模型的泛化能力在捡杯(pick-up-cup)任务中得到了证明,3D-VLA在CALVIN中也取得了较好的结果,研究人员将这种优势归因于定位感兴趣的对象和想象目标状态的能力,为推断动作提供了丰富的信息。


参考资料:
https://vis-www.cs.umass.edu/3dvla/



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
包包具身智能离现实有多远:热潮、泡沫、技术前沿、商业化 | 峰瑞研究所1个月超10万外国人涌入!澳洲实现新移民里程碑,专家:恐引发灾难空间智能:能否成为具身智能技术的下一个里程碑?具身智能最佳形态是什么?它是通往AGI必由之路?八位头部玩家、学者现身说法超4100万,加拿大总人口将在下个月突破新里程碑!倒计时一周!首届中国具身智能大会(CEAI 2024)日程重磅发布!AI Pioneers|星海图高继扬:人形机器人不是具身智能的唯一答案LeCun怒斥Sora是世界模型,自回归LLM太简化了用MoE横扫99个子任务!浙大等提出全新通用机器人策略GeRM100%合成数据实现99.9%抓取成功率,通用具身智能技术公司「跨维智能」完成战略轮融资|36氪首发「懂物理」是具身智能核心!北大高逼真物理仿真,加持磁性微米级机器人登Nature子刊具身智能占领中国硅谷?1.23万AI学者集结海淀,填补全球百亿人形机器人空缺CVPR 2024 | 无参数无训练也能大幅涨点!港城大等提出全新小样本3D分割模型北京海淀打响具身智能争夺战:公布三年行动方案,部署六大行动ICRA 2024:「具身智能」热度飙升,「学习」成机器人行业共识让AI进入物理世界,首届中国具身智能大会展望智能新纪元注意!10万人涌入澳洲,竟是为了他?史无前例,新里程碑即将到来!网友:仿佛一场童话!CMU华人18万打造高能机器人,完爆斯坦福炒虾机器人!全自主操作,1小时学会开12种门生成式AI大会沸腾北京!从Sora到具身智能,25位大佬密集输干货CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步机器人,才是AI世界模型的星辰大海PRO | Agent 爆火之后,具身智能才是 AI 下一站?【长篇小说】县委副书记(020)駐唱翁谭天伟等提出一体化生物炼制策略,1kg杨木锯末可生产超104g乙醇和206g木质素油,具备经济可行性具身智能的未来大模型助力具身智能、电池研发与蛋白质研究,讯飞、深势科技、字节专家齐聚分享|AIConSora是世界模拟器吗?全球首篇综述全面解析通用世界模型AGI、具身智能、合成生物、新能源、新材料……还有谁将代表未来?《智慧之光》&《漫长的告白》新州妇人成功移植心脏泵与猪肾,术后状况佳,开创医界新里程碑EmbodiedGPT一作穆尧:具身智能大模型与通用机器人系统 | GenAICon 2024可以代表一个餐馆水准的这些菜!博士申请 | 清华大学交叉信息院MARS Lab招收具身智能/多模态方向博士生
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。