Redian新闻
>
ICCV 2023 | 浙大&阿里提出:基于Transformer的可泛化人体表征来了!

ICCV 2023 | 浙大&阿里提出:基于Transformer的可泛化人体表征来了!

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【计算机视觉和Transformer】交流群

在CVer微信公众号后台回复:TransHuman,可以下载本论文pdf和代码,快学起来!

0. 笔者前言

可泛化人体重建旨在在多个人体视频上进行预训练,学习可泛化的重建先验。在测试阶段,给定新人物的稀疏视角参考图,在无需微调或者训练的情况下,可直接输出新视角。以往方法大部分使用基于稀疏卷积(SparseConvNet)的人体表征方式,然而,一方面,稀疏卷积有限的感受野导致其对人体的自遮挡十分敏感,另一方面,其输入为不断变化的观察空间姿势下的人体,导致训练和推理阶段的姿势不匹配问题,降低了泛化能力。

不同于此,本文工作TransHuman使用Transformer围绕SMPL表面构建了人体部位之间的全局联系,并且将输入统一在标准姿势下,显著的提升了该表征的泛化能力。在多个数据集上达到了新SOTA的同时,具有很高的推理效率。

1. 效果展示

(NOTE:推荐前往论文主页观看视频DEMO,更加直观。)

在ZJU-MoCap的泛化结果:

在H36M跨数据集泛化结果:

Mesh重建结果:

2. 论文信息

标题:TransHuman: A Transformer-based Human Representation for Generalizable Neural Human Rendering

作者:Xiao Pan, Zongxin Yang, Jianxin Ma, Chang Zhou, Yi Yang

机构:浙江大学CCAI-ReLER实验室,阿里巴巴达摩院

原文链接:

https://openaccess.thecvf.com/content/ICCV2023/papers/Pan_TransHuman_A_Transformer-based_Human_Representation_for_Generalizable_Neural_Human_Rendering_ICCV_2023_paper.pdf

代码:github.com/pansanity666/TransHuman/

主页:pansanity666.github.io/TransHuman/

3. 摘要

本文专注于可泛化人体重建任务。为了处理动态人体的运动和遮挡,之前方法主要采用了基于稀疏卷积的人体表征。然而,该表征方式1)在多变的观察姿势空间进行优化,导致训练与测试阶段输入姿势不一致,从而降低泛化性; 2)缺少人体部位之间的全局联系,从而导致对人体的遮挡敏感。为了解决这两个问题,我们提出了一个新的框架TransHuman。TransHuman在标准姿势空间进行优化, 并且使用Transformer构建了人体部位之间的联系。具体来讲,TransHuman由三个部分组成:基于Transformer的人体编码(TransHE), 可形变局部辐射场(DPaRF), 以及细粒度整合模块 (FDI). 首先,TransHE在标准空间使用Transformer处理SMPL;然后,DPaRF将TransHE输出的每个Token视为一个可形变的局部辐射场来获得观察空间下某一查询点的特征。最后,FDI进一步从参考图中直接收集细粒度的信息。本文在ZJU-MoCap及H36M上进行大量实验,证明了TransHuman的泛化性显著优于之前方法,并具有较高的推理效率。

4. 算法解析

Pipeline概览 / 研究背景

TransHuman的pipeline如下图所示。整个pipeline可以抽象为:给定空间中一个查询点(Query Point),我们需要从多视角参考图中提取一个对应的 条件特征(Condition Feature) 输入NeRF,从而实现泛化能力(详细可参考PixelNeRF)。而条件特征主要由两部分组成:表面特征(Appearance Feature)人体表征(Human Representation)

  • 表面特征:该特征可由将查询点通过相机参数进行反向投影后在参考图中进行插值得到,其直接反应参考图中的原始RGB信息,因此属于细粒度信息。但由于其缺少人体几何先验信息,仅使用此特征会导致人体几何的崩塌(详见Paper原文实验部分);

  • 人体表征:为获得人体表征,首先通过现有的SMPL估计方法,从视频中拟合出一个SMPL模版(Fitted SMPL,数据集一般自带)。然后对于SMPL的每一个顶点,将其反向投影到参考图得到该顶点对应的CNN Feature,就得到了着色之后的SMPL(Painted SMPL)。从着色之后的SMPL提取出来的特征便是人体表征人体表征包含了人的几何先验,因此在pipeline中起着关键作用,也是本文的研究重点。

研究动机

之前的方法主要利用稀疏卷积(SparseConvNet) 来得到人体表征 ,如下图上半部分所示。该方法主要有两个问题:

  • 多变的输入姿势问题。 稀疏卷积的输入为观察姿势下的SMPL,也就是说其输入的姿势会随着帧数的变化而变化。这导致了训练和推理阶段的输入姿势不一致问题(推理阶段的人的姿势可能是各种各样的),从而极大的增加了泛化的难度。

  • 局部感受野问题。 由于我们所能获取的参考图往往是十分稀疏的(本文默认采用3个视角),所以着色之后的SMPL通常包含大量的被遮挡部分。而另一方面,稀疏卷积本质是3D卷积,其感受野比较有限,从而导致无法进行人体部位之间的全局的推理。具体举例来说,假设人的左手是可见的而右手是被遮挡的,如果有全局之间的关系,那么网络理论上可以推断出右手被遮挡的部分大概是什么样。基于此直觉,我们认为在人体不同部位之间构建全局关系是很重要的。

为了解决以上两个问题,我们提出了本文关键的两个创新点(如下图下半部分所示),即:

  • 用Transformer在SMPL表面之间构建全局关系,即TransHE部分。

  • 将网络输入先统一在标准空间(比如T-pose的SMPL),然后将输出通过SMPL形变的方式转化回观察姿势进行特征提取,即DPaRF部分。

基于Transformer的人体编码 (TransHE)

接下来我们详细介绍TransHE的细节。如下图左下角所示,TransHE模块的输入是Painted SMPL (6890xd1)。一种直接的做法是将6890个Token输入Transformer(本文使用ViT-Tiny),然而这种做法1)会带来巨大的计算开销;2)会引入细粒度误差(Fitted SMPL只是人体的粗略模版而不包含衣物等细节,因此其着色本身也存在一定的误差)。基于这两个问题,我们需要降低输入Transformer的Token数量。一种非常直接的想法是对Painted SMPL进行voxlization,即将空间均匀划分为一个个小方块,在同一个方块内的顶点取平均算做一个Token,同时把方块中心作为Token对应的PE。但由于Painted SMPL是在观察姿势下的,随着输入帧的变化,观察姿势也随之变化。这就导致每次输入ViT的Token数量以及PE都在变化,使得优化变得十分困难。为了进一步解决这个问题,我们提出先对标准姿势SMPL(本文使用T-pose)进行K-Means聚类(本文默认聚300类)得到一个分组的字典。然后用该字典对Painted SMPL进行划分,同一类的特征取均值作为Token,同时将标准姿势SMPL下的聚类中心作为PE输入ViT。这样一来,Token数量和PE便不再受观察姿势的影响,极大的降低了学习的难度。

可形变局部辐射场 (DPaRF)

由于我们在TransHE模块将输入统一在了标准姿势,而我们最终需要的是观察姿势下给定查询点对应的特征,因此,我们需要将TransHE的输出变回到观察姿势。这里我们的思路是,为每个Token(对应一个身体部位)维护一个局部辐射场,且该辐射场的坐标系随着观察姿势下对应Token的旋转而旋转。对于每一个查询点, 我们将其分配到距离最近的K个Token(即,局部辐射场)。对于每个局部辐射场,我们将Token与该场下的局部坐标进行拼接得到该场下的人体表征。最终的人体表征则是这K个场的所有人体表征的加权和(根据距离加权)。

细粒度整合模块 (FDI)

通过TransHE和DPaRF, 我们已经得到了给定查询点的人体表征,该表征包含了粗粒度的人体几何先验信息。接下来,和之前的工作类似,我们使用一个Cross-attention模块,将粗粒度的人体表征视作Q,细粒度的表面特征视为K和V,得到最终的条件特征

5. 实验结果

本文在ZJU-MoCap和H36M上进行了泛化性实验,结果如下图所示。主要分为四个setting: Pose的泛化,Identity的泛化,只给一张参考图的泛化,以及跨数据集的泛化。在四个setting上均显著高于之前方法,达到了新的SOTA。

同时,作者还给出了在其代码中直接将TransHE + DPaRF模块替换成原来的SPC-based方法,以争取尽量公平的对比。结果如下图所示,本文方法仍明显领先。

另外,作者对本文方法的效率也给出了分析。在使用相同推理时间的情况下,本文方法性能仍然明显高于之前的方法,并且推理消耗的内存更小。可见本文方法具有比较高的推理效率。

篇幅有限,更多详细的Ablation以及可视化推荐大家阅读原文及观看项目主页的视频DEMO。

6. 总结

本文为可泛化人体重建领域引入了一种新的基于Transformer的人体表征。该表征在人体部件之间构建了全局关系,并将优化统一在了标准姿势下。其泛化性能明显优于先前的基于稀疏卷积的表征,而且具有比较高的推理效率,为后续可泛化人体重建的研究提供了一个新的更高效的模块。

在CVer微信公众号后台回复:TransHuman,可以下载本论文pdf和代码,快学起来!

点击进入—>【计算机视觉和Transformer】交流群

ICCV / CVPR 2023论文和代码下载

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

计算机视觉和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-计算机视觉或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如计算机视觉或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响Yann LeCun点赞!Meta对Transformer架构下手了:新注意力机制更懂推理ICCV 2023 | 新注意力!清华黄高团队提出FLatten Transformer视觉新主干谷歌DeepMind力证:GPT-4终局是人类智慧总和!Transformer模型无法超越训练数据进行泛化智能的本质就是压缩?马毅团队5年心血提出「白盒」Transformer, 打开LLM黑盒!NeurIPS 2023 | MixFormerV2:基于Transformer的高效跟踪器仅根据蛋白质序列便可预测相互作用界面,一种基于Transformer的蛋白预测模型谷歌DeepMind力证:Transformer模型无法超越训练数据进行泛化!GPT-4终局是人类智慧总和!简化版Transformer来了!网友:年度论文去沙特看哪些著名人文景点?补写在七夕----看土拨鼠 读夜雨改进分子表征学习,清华团队提出知识引导的图 Transformer 预训练框架ICCV 2023 | 上交提出CCD:基于自监督字符到字符蒸馏的文本识别MIT斯坦福Transformer最新研究:过度训练让中度模型「涌现」结构泛化能力请子坛专家帮忙看一下这几个学校 BC, Turfs, Tulane, W&M, NEUGunn HSLLM-as-Agent、VLAM的机会、「算力困境」和对Transformer的质疑【台灣演義】東北少帥 張學良918事件誤判 陷東北NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer顶刊TPAMI 2023!中科院提出:基于几何分析的神经辐射场编辑方法DeepMind指出「Transformer无法超出预训练数据实现泛化」,但有人投来质疑ICCV 2023 | 清华、ETH提出Retinexformer,刷新十三大暗光增强榜最近发生在的Texas的Law and Order的具体案例,你觉得和你想象的一样吗?你会支持这样的Law&order吗南开&山大&北理工团队开发trRosettaRNA:利用Transformer网络自动预测RNA 3D结构《忘记他》 &《The Joker and the Queen》by 蜀风雅韵PyTorch最新工具mm来了!3D可视化矩阵乘法、Transformer注意力!Meta对Transformer架构下手了:新注意力机制更懂推理基于Transformer和注意力的可解释核苷酸语言模型,用于pegRNA优化设计ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!ICCV 2023 最佳论文候选!北大提出UniDexGrasp++:基于几何感知课程和迭代通用-专家策略学习的灵巧手抓取算法Transformer的上下文学习能力是哪来的?2023中国纪行(5) 天津网红图书馆起底PC新机皇:高通4nm芯片,Arm架构Windows系统,内置Transformer加速,还配了5G和WiFi7Transformer变革3D建模!MeshGPT来了!效果惊动专业建模师。。。NeurIPS 2023 | MCUFormer: 可在内存有限微控制器上部署的Vison Transformer模型今天去Manhattan,离E 73rd St & York Ave 比较近的有什么好的餐厅,包括中餐厅可以推荐医药代表的故事 23 顺藤摸瓜VQ一下Key,Transformer的复杂度就变成线性了ICCV 2023 | 复旦&微软提出ILA:基于可学习隐式对齐的时序建模方法屠榜CVPR!Transformer视频教程发布
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。