顶刊TPAMI 2023!北大&华为提出:人体动作生成综述
点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
AI/CV重磅干货,第一时间送达
在CVer微信公众号后台回复:人体动作生成,可以下载本论文pdf,学起来!
关键词:人体运动 生成模型 文献综述
导 读
本文是对发表于计算机视觉领域顶级期刊 TPAMI 2023 的综述论文 Human Motion Generation: A Survey 的解读。该论文由北京大学博雅特聘教授王亦洲课题组与北京大学艺术学院高峰助理教授、华为云首席科学家田奇博士合作完成。
这篇综述首次全面总结了人体动作生成领域的相关研究工作。作者首先介绍人体动作和生成模型的基础知识,然后对三个主要子任务(基于文本、音频和场景驱动的人体动作生成)的代表性方法进行了概述。此外,作者还梳理了常见数据集和评估指标,并讨论了开放问题和潜在的未来研究方向。作者希望本综述能够为这个快速发展的领域提供一个全面的概览,并启发解决现有挑战的新思路。
论文链接:
https://arxiv.org/pdf/2307.10894.pdf
Early Access:
https://ieeexplore.ieee.org/document/10313063
图1. 代表性的人体动作生成任务和方法概览。
01
背景介绍
人类根据自身意图和环境信息来规划和执行身体动作。作为人工智能的一项重要目标,生成人体的动作模式引起了各个研究领域的越来越多的关注,包括计算机视觉、计算机图形学、多媒体、机器人学和人机交互。人体动作生成的目标是生成自然、逼真且多样化的人体动作,在电影制作、视频游戏、增强现实/虚拟现实、人机交互和虚拟数字人等领域具有广泛应用。
随着深度学习的兴起,近年来各种生成方法取得了快速发展,如自回归模型、变分自编码器(VAE)、归一化流、生成对抗网络(GAN)和去噪扩散概率模型(DDPM)。这些方法在文本、图像、视频和 3D 物体等不同领域取得了巨大成功。另一方面,人体建模的显著进展使得从视频中提取人体动作和构建大规模人体动作数据集变得更加容易。因此,近年来数据驱动的人体动作生成引起了研究界越来越多的兴趣。
然而,人体动作生成面临的挑战不仅仅是将深度生成模型应用于人体动作数据集:
1. 人体动作高度复杂和非线性,受物理和生物力学约束;而人类大脑具有感知生物运动的专门神经机制,对稍不自然的动作模式都很敏感。因此,生成的动作在质量方面有很高的要求,需要兼具自然性、流畅性和合理性。
2. 人体动作生成的需求通常包括一个条件信号,如文本描述、背景音频或周围环境,如图1所示。因此生成的动作不仅本身应该合理,还应与条件信号协调一致。
3. 人体动作作为一种重要的非语言交流媒介,背后反映了多个潜在因素,如行为目标、个人风格、社会规范和文化表达。理想情况下,动作生成模型应该学习捕捉动作变化和与条件信号间微妙的语义关联。
基于这一领域的快速发展和涌现的挑战,我们提供了这篇全面的综述,以帮助研究界跟踪其进展。图2总结了近年来人体动作生成方法的发展。
图2. 人体动作生成方法的近期进展(不同条件信号驱动)。
02
动作生成方法
本篇综述论文主要关注基于条件信号的人体动作生成任务,包括文本驱动、音频驱动和场景驱动,并分别总结了这些方法的代表性成果,如表1所示。
表1. 人体动作生成代表性方法总结。
文本驱动
文本驱动人体动作生成任务旨在根据自然语言描述生成人体动作序列。这类方法可以分为两类:动作标签驱动和自然语言驱动。动作标签驱动利用有限的预定义标签生成动作,而自然语言驱动则可以基于多样化的文本描述生成更丰富的动作。
音频驱动
音频驱动人体动作生成任务旨在根据音频信号(如音乐或语音)生成相应的人体动作。这类任务主要可以分为音乐到舞蹈和语音到手势两个子任务。音乐到舞蹈任务生成与音乐节奏和风格相匹配的舞蹈动作,而语音到手势任务则生成与语音内容相协调的上半身动作。
场景驱动
场景驱动人体动作生成任务旨在根据场景环境生成合理的人体动作。这类方法通常采用多阶段管线,首先预测目标位置或目标交互锚点,然后规划路径或轨迹,最后沿轨迹生成动作。
03
数据集
我们分别总结了与文本、音频和场景条件相关的人体动作数据集。这些数据集涵盖了各种动作类别、音频类型和场景类型,为人体动作生成研究提供了丰富的数据资源,如表2所示。
表2. 人体动作生成主要数据集总结。
04
评价指标
我们总结了从不同角度评价生成动作的常用指标,包括真实性、多样性、条件一致性、主观评测等等,如表3所示。这些指标可以帮助研究者比较不同方法的性能,推动领域的发展。此外,我们也探讨了现有评价指标的局限性。
表3. 人体动作生成主要评价指标总结。绿色、蓝色、橙色分别代表文本驱动、音频驱动和场景驱动的研究工作。
05
未来展望
尽管这个领域取得了迅速的进展,但仍存在一些重大挑战需要未来的探索。有鉴于此,我们从不同角度展望了几个富有前景的未来研究方向,以期能激发人体动作生成研究的新突破。未来的工作可以从数据、语义、评价、可控性和互动性等方面进行深入研究,以实现更自然、真实、多样化的人体动作生成。
数据:收集高质量的人体动作数据具有挑战性,未来研究可以探讨使用异构数据源,通过弱监督学习方法或多模态基础模型整合数据优势。
语义:人体动作不仅仅是身体部位的运动,还具有丰富的非言语沟通功能。未来研究可以深入探讨从数据、方法和评价等方面捕捉人体动作与条件信号之间的高层语义关系。
评价:合适的动作评价指标至关重要,但具有挑战性。未来工作可以关注设计更符合人类感知且具有可解释性的客观评价指标。
可控性:生成内容的可控性在实际应用中非常重要。未来研究可以进一步探索可控性,以创造更用户友好的体验,例如交互式和细粒度编辑。
互动性:人体动作的互动性尚未得到充分探讨。未来研究可以关注人体动作生成在人际互动和人与环境互动背景下的应用,例如社交群体中的互动动作和动态可操作场景中的动作生成。
在CVer微信公众号后台回复:人体动作生成,可以下载本论文pdf,学起来!
后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集 后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集
计算机视觉和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-计算机视觉或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲扫码或加微信号: CVer444,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!
▲扫码加入星球学习
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
▲扫码或加微信号: CVer444,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!
▲扫码加入星球学习
整理不易,请点赞和在看▲点击上方卡片,关注CVer公众号
微信扫码关注该文公众号作者