Redian新闻
>
CVPR 2023 | 北大提出UniDexGrasp:通用灵巧手抓取算法

CVPR 2023 | 北大提出UniDexGrasp:通用灵巧手抓取算法

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【扩散模型】微信技术交流群



转载自:北京大学前沿计算研究中心

导  读

本文是 CVPR 2023 入选论文 UniDexGrasp: Universal Robotic Dexterous Grasping via Learning Diverse Proposal Generation and Goal-Conditioned Policy 的解读。本论文由北京大学王鹤研究团队与北京通用人工智能研究院、斯坦福大学、清华大学合作,提出了对于一个单独放置在桌面上的物体的点云输入,使用五指灵巧手进行抓取的方法。


我们将灵巧手抓取物体的过程分为两个阶段,第一阶段针对物体点云输入生成若干静态抓取手势,从中挑选一个作为目标手势之后,第二阶段使用基于目标手势的强化学习策略来执行抓取。值得注意的是,我们的抓取算法能够在总共133类3441个物体间泛化,其中包括了241个训练时未见过的物体。同时,我们在最后也展示了将抓取算法分为两阶段的应用前景,即可以通过指定抓取手势来适应下游任务,诸如实现功能性操作等。

论文链接:

https://arxiv.org/abs/2303.00938

项目主页:

https://pku-epic.github.io/UniDexGrasp/

代码地址:

https://github.com/PKU-EPIC/UniDexGrasp


图1. 左半部分:抓取手势生成。对于小图中的每一个物体,我们都生成了若干个拥有不同旋转、位移与手指关节角度的抓取手势。右半部分:基于目标的抓取执行。对于一个飞机形物体,图中左下角和右下角分别展示了两种可能被选定为目标的手势,大图中对应颜色的轨迹便是分别基于这两个目标手势下由策略网络执行的抓取。


01

引   言

机器人抓取是智能体与环境交互的基本能力,是操作的先决条件,几十年来一直被广泛研究。近年来,二指抓夹的抓取算法的研究取得了很大进展,对于抓取未知物体的通用方法也具有较高的成功率。然而,二指抓取的一个基本限制是它的低灵巧性,这限制了它在复杂和功能性物体操作中的应用。灵巧抓取提供了一种更多样化的抓取物体的方式,因此对于机器人功能和精细物体操作至关重要。然而,灵巧手的驱动空间的高维度既是赋予灵巧手这种多功能性的优势,也是难以执行成功抓取的主要原因。作为一种广泛使用的五指机器人灵巧手,ShadowHand[1]拥有26个自由度(DoF),而典型的平行夹持器则为7个自由度。这种高维度加大了生成有效抓取姿势和规划执行轨迹的难度,从而迫使灵巧抓取任务的研究采取与平行抓取任务不同的方法。一些工作已经研究了抓取姿态合成问题,但是它们都假设了输入包含完整的物体几何与状态。很少有工作研究在现实的机器人环境中处理灵巧抓取,但到目前为止,还没有研究提出通用和多样化的灵巧抓取,可以很好地泛化到训练时未曾见过的物体。


在这项工作中,我们解决了这个非常具有挑战性的任务:学习一个通用的灵巧抓取方法,可以在仿真的场景中很好地泛化到数百种训练时见过或是未见过的物体类别,并且输入仅包含相机拍摄的深度信息和描述机器人自身状态的自我感知参数。我们使用的数据集[2]包含来自133个物体类别的5519个物体实例的100多万种抓取手势,这是目前最大的机器人灵巧手抓取数据集。


受二指平行抓取器的成功工作的启发,我们提出将这一具有挑战性的任务分解为两个阶段:1)灵巧抓取手势生成。在此阶段中,我们根据点云观测生成不同的抓取姿势;2)基于目标抓取执行,以在阶段一生成的手势中选取的一个抓取目标手势为条件,生成符合目标手势且物理上可行的运动轨迹。这两个阶段的任务依然非常具有挑战性,对于每个阶段,我们都贡献了一些创新,如第二部分所述。


大量的实验证明了我们方法流程的卓越性能。在抓取手势生成阶段,我们的方法是唯一在保持高抓取质量的同时表现出高度多样性的方法。而从视觉输入到抓取执行的整个的抓取流程也在我们的仿真环境中取得了令人印象深刻的表现,并首次展示了一个通用的抓取策略,成功率超过60%,显著优于所有基准方法


02

方法简介

图2. 方法概览。左侧为第一阶段,生成灵巧抓取手势。输入为由深度图像融合而成,处于初始时刻  的目标点云  ,其中包含物体和桌面的准确分割。旋转  从 GraspIPDF 所隐含的分布中采样,点云将被此旋转规范化至  。然后,GraspGlow 对平移  和关节角  进行采样。接下来,ContactNet 从生成的手上采样的点云  来预测物体上的理想接触图  。然后,根据接触图对预测出中手的手势进行优化。通过  变换最终目标姿态,使其与原始视觉观测对齐。右边部分是第二阶段,基于目标手势的灵巧手抓取策略,采用目标  、点云  和机器人本体感觉  采取相应的行动。


如图2所示,方法的流程分为左右两个阶段:第一阶段针对物体点云输入生成若干抓取手势,从中挑选一个作为目标手势之后,第二阶段使用基于目标手势的强化学习策略来执行抓取。


在生成抓取手势时,由于我们发现将旋转的  空间与平移和关节角的欧式空间解耦,并且在最后附加基于接触图的优化过程,将会获得更稳定有效的生成流程,因此生成抓取手势总共分为三个子模块


生成总体旋转的模块 GraspIPDF 受到了 ImplicitPDF [6](缩写为 IPDF)的启发,使用神经网络来隐式表达概率分布  使得我们可以从中采样。


在确定了一个旋转之后,我们将整个观察到的点云规范化至  ,作为输入进入第二个模块 GraspGlow。Glow[5] 是一种常用的基于标准化流来建模欧式变量的方法,而 GraspGlow 则利用它来建模  。


由于我们在前两个阶段致力于生成多样性的抓取,因而基于概率采样出的抓取手势在精确度方面不可避免地有所下降。所以我们需要第三个子模块,即通过接触图来优化概率采样得到的抓取手势。ContactNet 的输入是并不完美的抓取手势与物体点云(训练时我们通过扰动完美的抓取手势来实现这一效果),输出是对物体点云中的每一个点的在  区间内的理想接触热力值,越靠近  表示离理想接触时的手越远,越靠近  表示离理想接触时的手越近。


为了使概率采样得到的手更接近理想接触时的手,一方面我们通过自监督的损失函数来微调 GraspGlow,这个损失函数包含了:1. 预测的理想接触图与由 GraspGlow 输出的手计算得到的接触图之前的差异;2. 物体点云穿透进手的网格的距离平方值;3. 手上预先选定的点位穿透进平面的深度;4. 自穿透。


另一方面,在测试时,我们也设计了能量函数来直接优化手势,这个能量函数包含的项与自监督的项相同,只是直接优化手势参数,而不是用来微调 GraspGlow。

图3. 基于手势目标的策略学习流程图。


在执行目标手势的强化学习时,如果直接基于点云以及描述机器人自身状态的自我感知参数,这两个真实世界能够获取的输入,那么学习的难度极大。所以,我们采用了师生学习框架(Teacher-Student Learning Framework)。即我们首先学习一个可以访问全知状态输入的全知教师模型,然后将其蒸馏为只接受实际输入的学生模型。不过尽管教师策略获得了对全知信息的访问权,但使其成功地抓取与不同抓取手势目标配对的不同物体仍然是艰巨的任务。为了提升模型训练的效率和以及在不同类别物体之间的泛化性能,我们设计了以下3个技巧:1. 状态标准化;2. 对于物体的课程学习;3. 使用分类任务协助训练。


我们使用状态规范化(state canonicalization)来提高具有不同目标输入的强化学习的样本效率。具体而言,我们使用了机器手根部在世界坐标系中绕  轴的初始欧拉角  作为规范化处理的参数。同时,我们将状态从世界坐标系转移到这个参考坐标系下。这样做可以使得模型更加高效地学习到不同目标输入下的抓取策略。


同时,我们提出了物体课程学习(object curriculum learning)的方法,用于训练机器人在不同类别的物体上进行灵巧抓取。该技术可以帮助机器人更好地学习到不同类别物体的抓取策略,从而提高其抓取成功率。具体而言,物体课程学习技术分为三个阶段。在第一个阶段中,我们首先让机器人在单个物体上进行训练。在第二个阶段中,我们让机器人在同一类别的不同物体上进行训练。最后,在第三个阶段中,我们让机器人在所有类别的物体上进行训练。通过这种逐步增加难度的方式,我们可以帮助机器人更好地学习到不同类别物体的抓取策略,并且避免了直接在多个类别物体上进行训练时出现的失败情况。实验结果表明,使用物体课程学习技术可以显著提高机器人的抓取成功率。


我们还采用了分类任务协助训练。具体而言,我们使用物体类别分类任务提前训练视觉编码器模块并在策略学习中使用分类任务进行联合训练。


最后,我们使用知识蒸馏的方法,通过将教师策略的知识转移到学生策略中,从而提高学生策略的性能。具体而言,我们将在全知状态输入下训练的教师策略的知识转移到只接受真实世界输入的学生策略中。


03

实验结果

我们分别针对抓取生成流程、基于状态输入的模型和基于视觉信息输入的模型进行了三类实验比较。

图4. 抓取生成流程的实验结果。


对于抓取生成流程的实验,我们采用了如下的衡量标准:1.  值[7],表示了能够成功扰动抓取手势中的物体的最小扰动。2. 物体穿透,表示了从物体点云穿透进手网格的深度。3.  :表示各个指标的标准差,用来衡量我们生成的抓取的多样性。我们的比较基准则包含了使用了GraspTTA[3],DDG[8],以及 ReLie[4],ProHMR[9] 分别根据推测任务做出调整后再加上了测试时自适应(Test-Time Adaptation)的版本。可以看到,我们提出的方法兼具抓取的高质量和多样性,是其他方法无法做到的。


图5. 关于基于状态的模型实验的成功率。


对于抓取执行实验,提供了 UniDexGrasp 在大规模合成数据集上的实验结果。实验结果表明,UniDexGrasp 可以在不同类别的物体上实现高质量、多样化的灵巧抓取。具体而言,我们将 UniDexGrasp 与四种基线方法进行了比较,表格3中列出了这些方法在训练集和测试集上的平均成功率。结果显示,UniDexGrasp 在训练集和测试集上分别达到74%和69%的平均成功率,显著优于其他方法。于此同时,我们还做了一系列消融实验以证明了每个关键技术对最终结果的重要性。


图6. 关于基于视觉信息输入的模型实验成功率。


表格4展示了基于视觉输入的学生策略的成功率。我们对比了使用训练抓取数据和使用我们视觉模块方法预测的抓取位姿进行测试的结果。同时,我们通过扰动我们预测的抓取姿势以导致小穿透 (a)、较大穿透 (b) 和无接触 (c) 来对我们基于视觉的策略进行稳健性测试,并观察到我们的抓取执行策略对此类错误具有一定的鲁棒性。


图7. 使用图像语言模型 CLIP[10] 来选择特定方式的抓取手势。


我们方法一个非常自然的应用就是加入一个语言处理模块使得机器手按照特定方式来抓取物体。给定一段文本描述,我们将生成的抓取手势渲染成图片,随后通过 CLIP 模型选择图片文本相似度最高的抓取。在我们的初步尝试中,只用了10分钟的微调,CLIP 就能在手和锤子这一组合上达到90%的准确度,这也证明了进一步应用的可行性。


参考文献

[1] ShadowRobot. URL https://www.shadowrobot.com/dexterous-hand-series/, 2005.

[2] Ruicheng Wang, Jialiang Zhang, Jiayi Chen, Yinzhen Xu, Puhao Li, Tengyu Liu, and He Wang. Dexgraspnet: A large-scale robotic dexterous grasp dataset for general objects based on simulation. arXiv preprint arXiv:2210.02697, 2022.

[3] Hanwen Jiang, Shaowei Liu, Jiashun Wang, and Xiaolong Wang. Hand-object contact consistency reasoning for human grasps generation. ICCV, 2021.

[4] Luca Falorsi, Pim de Haan, Tim R Davidson, and Patrick Forre ́. Reparameterizing distributions on lie groups. In The 22nd International Conference on Artificial Intelligence and Statistics, pages 3244–3253. PMLR, 2019.

[5] Durk P Kingma and Prafulla Dhariwal. Glow: Generative flow with invertible 1x1 convolutions. Advances in neural information processing systems, 31, 2018.

[6] Kieran A Murphy, Carlos Esteves, Varun Jampani, Srikumar Ramalingam, and Ameesh Makadia. Implicit-pdf: Non-parametric representation of probability distributions on the rotation manifold. ICML, pages 7882–7893, 2021.

[7] Carlo Ferrari and John F Canny. Planning optimal grasps. In ICRA, volume 3, page 6, 1992.

[8] Min Liu, Zherong Pan, Kai Xu, Kanishka Ganguly, and Dinesh Manocha. Deep differentiable grasp planner for high-dof grippers. arXiv preprint arXiv:2002.01530, 2020.

[9] Nikos Kolotouros, Georgios Pavlakos, Dinesh Jayaraman, and Kostas Daniilidis. Probabilistic modeling for human mesh recovery. ICCV, pages 11605–11614, 2021.

[10] Alec Radford, Jong Wook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, et al. Learning transferable visual models from natural language supervision. ICML, pages 8748–8763. 2021.


图文 | 徐崟桢、万维康

Embodied Perception and InteraCtion (EPIC)

点击进入—>【计算机视觉】微信技术交流群


最新CVPR 2023论文和代码下载


后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


目标检测和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群

CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
CVPR 2023 | 北大提出DynamicDet:目标检测器的通用动态架构CVPR 2023 | 多模态新任务和新数据集!NTU提出广义引用分割问题GRES炸裂!最新CVPR2023、ICML2023、AAAI2023、ACL2023论文+Code大合集!CVPR 2023|两行代码高效缓解视觉Transformer过拟合,美图&国科大联合提出正则化方法DropKeyCVPR 2023 | 香港理工提出GrowSP:3D场景的无监督语义分割2022&2023 Subaru Outback 和 2023 Honda CRV Hybrid二选一素食好主意 【豆糊烙饼】CVPR 2023 | 南大王利民团队提出LinK:用线性核实现3D激光雷达感知任务中的large kernelCVPR 2023 | 浙大&南洋理工提出PADing:零样本通用分割框架CVPR 2023 | 一键去除视频闪烁,该研究提出了一个通用框架CVPR 2023 | 开源了!一种通用的视频闪烁去除方法Eruope 2023CVPR 2023 | 浙大提出全归一化流模型PyramidFlow:高分辨率缺陷异常定位新范式CVPR 2023 | Uni3D: 首个多数据集3D目标检测框架南澳散记 (增订本) :第二十章:父母来访南澳(下)CVPR 2023 | 谷歌提出CLIPPO:仅从像素理解图像和语言首个感知决策一体化自动驾驶通用大模型!商汤联合团队获CVPR 2023最佳论文豪斯曼:《诗歌外编》: 第二十三首:橄榄树CVPR 2023 | 何恺明团队开源FLIP:MAE助力CLIP更快更高精度!CVPR 2023 | LeCun世界模型首个研究!自监督视觉像人一样学习和推理!CVPR 2023 | 白翔团队提出:将CLIP模型用于场景文本检测转:2023 回国探亲(5)美国塔霍湖(Lake Tahoe),火烧云彩CVPR 2023论文总结!CV最热领域颁给多模态、扩散模型CVPR 2023 | 超越MAE!谷歌提出MAGE:图像分类和生成达到SOTA!CVPR 2023 | 一块隔热片即可实现红外场景下的物理攻击,北航提出针对红外行人检测器的漏洞挖掘技术CVPR 2023 | 微软提出LDGM:利用解耦扩散模型统一版面生成人造甜味剂与心脏病发作和中风的风险增加有关上海AI实验室联合团队获CVPR最佳论文奖 | CVPR 2023今年 CV 热点这么多,不可错过 CVPR 2023 线下论文分享会CVPR 2023 | IDEA与清华提出首个一阶段3D全身人体网格重建算法CVPR 2023|哈工大南洋理工提出全球首个「多模态DeepFake检测定位」模型:让AIGC伪造无处可藏国际要闻简报,轻松了解天下事(03CVPR 2023 | 神经网络超体?新国立LV lab提出全新网络克隆技术CVPR 2023 | 谷歌、MIT提出统一框架MAGE:表征学习超MAE,无监督图像生成超越 Latent Diffusion2023 春 祝姐妹们周末快乐!CVPR 2023 | YOLOv7强势收录!时隔6年,YOLOv系列再登CVPR!CVPR 2023 | 精准、通用、轻量!EqMotion:等变轨迹预测与不变关系推断模型CVPR 2023|All in UniSim:统一的自动驾驶仿真平台CVPR 2023 | 大连理工和微软提出SeqTrack:目标跟踪新框架
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。