Redian新闻
>
大模型加持的机器人有多强,MIT CSAIL&IAIFI用自然语言指导机器人抓取物体

大模型加持的机器人有多强,MIT CSAIL&IAIFI用自然语言指导机器人抓取物体

公众号新闻
机器之心报道
机器之心编辑部
来自 MIT CSAIL 和 IAIFI 的研究者将准确的 3D 几何图形与来自 2D 基础模型的丰富语义结合起来,让机器人能够利用 2D 基础模型中丰富的视觉和语言先验,完成语言指导的操作。


最近,具身智能成为人工智能领域关注的一个焦点。从斯坦福大学的 VIMA 机器人智能体,到谷歌 DeepMind 推出首个控制机器人的视觉 - 语言 - 动作(VLA)的模型 RT-2,大模型加持的机器人研究备受关注。


当前,自监督和语言监督的图像模型已经包含丰富的世界知识,这对于泛化来说非常重要,但图像特征是二维的。我们知道,机器人任务通常需要对现实世界中三维物体的几何形状有所了解。


基于此,来自 MIT CSAIL 和 IAIFI 的研究者利用蒸馏特征场(Distilled Feature Field,DFF),将准确的 3D 几何图形与来自 2D 基础模型的丰富语义结合起来,让机器人能够利用 2D 基础模型中丰富的视觉和语言先验,完成语言指导的操作。


论文地址:https://arxiv.org/abs/2308.07931


具体来说,该研究提出了一种用于 6-DOF 抓取和放置的小样本学习方法,并利用强大的空间和语义先验泛化到未见过物体上。使用从视觉 - 语言模型 CLIP 中提取的特征,该研究提出了一种通过开放性的自然语言指令对新物体进行操作,并展示了这种方法泛化到未见过的表达和新型物体的能力。


研究团队用一个讲解视频详细介绍了 F3RM 方法的技术原理:



方法介绍


该研究分析了少样本和语言指导的操作,其中需要在没见过类似物体的情况下,给定抓取演示或文本描述,机器人就能拾取新物体。为了实现这一目标,该研究围绕预训练图像嵌入构建了系统,这也是从互联网规模的数据集中学习常识先验的可靠方法。


下图 1 描述了该研究设计的系统:机器人首先使用安装在自拍杆上的 RGB 相机拍摄一系列照片来扫描桌面场景,这些照片用于构建桌面的神经辐射场 (NeRF)。最重要的是,该神经辐射场经过训练不仅可以渲染 RGB 颜色,还可以渲染来自预训练视觉基础模型的图像特征。这会产生一种场景表征,称为蒸馏特征场(DFF),它将 2D 特征图的知识嵌入到 3D 体积中。然后,机器人参考演示和语言指令来抓取用户指定的物体。


该研究的一大亮点是从 CLIP 模型中提取密集的二维特征,来给蒸馏特征场提供监督。此前,OpenAI 的 CLIP 模型仅提供图片尺度的全局特征,而 3D 神经场的生成需要密集的 2D 描述符。


 为了解决这个问题,研究团队使用 MaskCLIP 对 CLIP 的视觉模型进行重新参数化,提取 patch 级密集特征。此方法不需要重新训练,可以保证其描述符与语言模型的对齐。


具身智能 (embodied intelligence) 囊括机器人,自动驾驶汽车等和物理世界有相互作用的人工智能体。这类智能体需要对物理世界同时进行几何空间和语义的理解来进行决策。


为了实现这样的表征能力,研究团队将视觉基础模型和视觉 - 语言基础模型中经过预训练的二维视觉表征通过可微分的三维渲染,构建为 3D 特征场。团队将这个方法运用在 6-DOF 机器人抓取任务上,这种方法叫作机器人操作特征场(Feature Fields for Robotic Manipulation,F3RM)的方法需要解决三个独立的问题:


  • 首先,如何以合理的速度自动生成场景的特征场;

  • 其次,如何表征和推断 6-DOF 抓取和放置的姿势;

  • 最后,如何结合语言指导来实现开放文本命令。


自然语言提供了一种将机器人操作扩展到开放物体集的方法,为目标物体照片不准确或不可用的情况提供了一种替代方案。在测试时,机器人接收来自用户的开放文本语言查询,其中指定要操作的物体。如下图 3 所示,语言指导的姿势推断过程包括三个步骤:


  • 检索相关演示;

  • 初始化粗略抓取;

  • 语言指导的抓取姿势优化。



实验结果


我们先来看一些机器人抓取的实验效果。例如,使用 F3RM 方法,机器人可以轻松抓取一个螺丝刀工具


抓取小熊玩偶:


抓取透明杯子和蓝色杯子:




把物体挂放在不同材质的架子上:




F3RM 还可以识别并抓取一些不常见的物体,比如化学领域会用到的量勺、量杯:




为了表明机器人能够利用 2D 基础模型中丰富的视觉和语言先验,并且可以泛化到未见过的新型物体上,该研究还进行了一系列抓取和放置任务的实验,我们来看下实验结果。


从示例中学会抓握


如下图 4 所示,该研究进行了 6-DOF 抓取和放置任务,并为每个任务提供两个演示。为了标记演示,该研究将 NeRF 重建的点云加载到虚拟现实中,并使用手动控制器将夹子移动到所需的姿势(图 2 (a))。



机器人在抓取和放置任务上的成功率如下表 1 所示:


下图 5 展示了该研究所提方法在未见过的新物体上的泛化情况:



此外,语义特征和详细 3D 几何图形之间的融合提供了一种对密集的堆叠进行建模的方法。例如,在下图 6 (b) 中,毛毛虫玩具被埋在其他玩具下面。图 6 (c) 显示机器人抓住了毛毛虫玩具,并将其从玩具堆的底部拾起。



语言指导的机器人抓取


该研究设置了 13 个桌面场景来研究使用开放文本语言和 CLIP 特征场来指定要操作物体的可行性。


在下图 7 中,机器人在语言指导下成功执行了 5 个抓握。整个场景包含 11 个物体,其中 4 个来自 YCB 物体数据集。


语言指导的操作成功率如下表 2 所示:



作者介绍


 William Shen


杨歌


文章的两位共同一作,博士三年级的 William Shen 和博后 杨歌是CSAIL 「具身智能」团队的成员 (https://ei.csail.mit.edu/labs.html)。这篇文章的指导老师是 Leslie Kaelbling 和 Phillip Isola. 其中 杨歌是 2023 年 CSAIL 具身智能研讨会的共同筹办人。


感兴趣的读者可以阅读论文原文,了解更多研究内容。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
无序的蛋白更高效,MIT团队揭示光合作用中光能高效传导机制《临江仙 - 端午》清华系「自然语言编程神器」上新!支持100+种编程语言,效率upup总编对话 | 瓴羊CEO朋新宇:智能化就是大模型加上好数据《端午节》&《好啊》学习生成式大语言模型,东北大学自然语言处理实验室有一堂课北京机器人新政策来了!支持开发机器人通用AI大模型CS课程要求, Georgia tech vs MIT, CMU, Princeton北京内推 | 微软亚洲研究院自然语言计算组招聘NLP方向研究实习生英伟达推出大模型加速包;Meta将训练对标GPT-4的大模型;ChatGPT等成费水大户丨AIGC大事日报Nat Med丨斯坦福团队利用twitter资源,开发出“病理图像文本对应”的自然语言-图像预训练模型华为在手机上,率先实现本地端自然语言搜图功能5098 血壮山河之武汉会战 浴血田家镇 6Asian MIT grad asks AI to make her photo more professionalACL 2023|大模型时代,自然语言领域还有什么学术增长点?科举制度和美国的工农兵学员「四合一物体传送门」,向场景中可控传送物体,上交&蚂蚁出品稚晖君人形机器人问世:大模型加持,会自己换胳膊,要上生产线造车MIT推出拾物机器人「最强辅助」,少量训练样本即可实现自然语言控制能站、跳、飞、蹲的全能机器人!加州理工发布变形轮式机器人M4:实现八种运动模式,AI加持自主导航图解 C 语言指针变量OPRO:利用LLM作为优化器,解决一系列用自然语言描述的任务上海交大&蚂蚁提出四合一物体传送门,向场景中可控传送物体乘风破浪的上班路理想城市 NOA 实测:大模型加持的辅助驾驶,挑战北京「地狱级」路线能抓取玻璃碎片、水下透明物,清华提出通用型透明物体抓取框架,成功率极高Holiday Special 七月上 望七月 ~~ poem & song by 盈盈 & AP稚晖君版“钢铁侠”来了!6个月造出实机,AI大模型加持,能当保姆能拧螺丝8大人形机器人参数对比来了!特斯拉、稚晖君的机器人究竟如何?|前哨分享ACL 2023 | GLUE-X:基于分布外泛化的自然语言理解模型测试集突发!耶鲁、哥大、MIT…17所大学被告上法庭这ABC太牛了! 横扫哈佛、MIT、普林斯顿 自学物理夺奥赛金牌Graphcore携手Pienso荣获CogX最佳创新类别的自然语言处理奖《原神》冰箱贴:神子&宵宫&申鹤&甘雨&刻晴&优菈&莫娜7位角色!人形机器人成新风口!探馆世界机器人大会:"机器人+制造业"国产替代加速章鹏:大模型只是少数人的机会,小模型才是大多数人的机会MIT华人博士生将ChatGPT搬进Jupyter,自然语言编程一站式搞定用大模型加持墨水屏,讯飞要帮你狠狠办公?大话三国253:庞统的能力有多强,他为什么不直接拿出推荐信?文心大模型升级3.5版本,有多强?我们帮你试了试
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。