Redian新闻
>
视频生成新突破!字节跳动提出PixelDance:轻松呈现复杂动作与炫酷特效

视频生成新突破!字节跳动提出PixelDance:轻松呈现复杂动作与炫酷特效

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

在CVer微信公众号后台回复:PixelDance,可以下载本论文pdf,学起来!

扫码加入CVer知识星球可以最快学习到最新顶会顶刊上的论文ideaCV从入门到精通资料,以及最前沿项目和应用!发论文,强烈推荐!

转载自:机器之心

AI 生成的视频终于能动了。

最近,除了大语言模型继续持续刷屏,视频生成技术也取得了重大进展,多家公司相继发布了新模型。

首先,作为最早探索视频生成领域的领头羊之一,Runway 升级了其 Gen-2 模型,带来了电影级别的高清晰度,令人瞩目,并称视频生成的一致性得到了重大改进。

但是,这种一致性的提升似乎是以牺牲视频动态性为代价的。从 Gen-2 的官方宣传视频中可以看出,尽管集合了多个短片段,但每个片段的动态性相对较弱,难以捕捉到人物、动物或物体的清晰动作和运动。

近期,Meta 也发布了视频生成模型 Emu Video。从 Emu Video 的官方示例中可以看出,其视频的动态性比 Gen-2 有明显提高,但仍然局限于较为简单的动作。


开发出了经典的文生图模型 Stable Diffusion 的公司 Stability.ai,也于近日发布了开源视频生成模型 Stable Video Diffusion (SVD),引发了开源社区的大量关注和讨论。SVD 效果能和 Gen-2 相当,通过测试样例能看出 SVD 生成的视频也相对缺少动态性。

SVD 论文里面提到了目前 SVD 生成的视频存在动态性不足的情况。

上述示例表明,生成有高度一致性且有丰富动态性的视频,让视频内容真正地动起来,是目前视频生成领域中的最大挑战

在这方面,最新的研究成果 PixelDance 迈出了关键性的一步,其生成结果的动态性显著优于目前现有的其它模型,引起了业界的关注。

Twitter知名AI博主@_akhaliq转发的PixelDance新闻已有近8万浏览量。


在官网(https://makepixelsdance.github.io)中,PixelDance 给出了两种不同的视频生成模式。

第一种是基础模式(Basic Mode),用户只需要提供一张指导图片+文本描述,PixelDance 就可以生成有高度一致性且有丰富动态性的视频,其中指导图片可以是真实图片,也可以利用现有的文生图模型生成。

从展示的结果来看,真实风格、动画风格、二次元风格、魔幻风格,PixelDance 通通都可以解决,人物动作、脸部表情、相机视角控制、特效动作,Pixeldance 也都可以很好的完成。只能说一句 tql!


第二种是高级魔法模式(Magic Mode),给了用户更多发挥想象力和创造力的空间。在这种模式下,用户需要提供两张指导图片+文本描述,可以更好地生成更有难度的视频内容。网站中展示了用魔法模式做出的各种炫酷特效镜头。


除此之外,官网还展示了完全使用 PixelDance 制作的 3 分钟故事短片:


非常震撼的一点是,使用 PixelDance 能按照用户预想的一个故事,制作每一个场景和对应的动作。不管是真实场景(如埃及、长城等),还是虚幻场景(如外星球),PixelDance 都能生成细节丰富、动作丰富的视频,甚至各种特效镜头也不在话下。

并且,主人公北极熊先生的黑色礼帽和红色领结形象,在不同的场景中都得到了很好的保持。长视频生成再也不是简单的拼凑弱相关的短视频片段了!

而达到这样拔群的视频生成效果,并没有依赖复杂的数据集和大规模的模型训练,PixelDance 在公开的 WebVid-10M 数据集上仅用 1.5B 大小的模型就达到了上述效果。

论文地址:https://arxiv.org/abs/2311.10982
demo 地址:https://makepixelsdance.github.io

在相应的论文《Make Pixels Dance: High-Dynamic Video Generation》中,作者指出了视频生成难以做出好效果的原因:相比于图片生成,视频生成具有特征空间显著更大、动作多样性显著更强的特点。这就导致了现有的视频生成方法难以学到有效的时域动作信息,生成的视频虽然图片质量较高,但动态性非常有限。

针对上述问题,PixelDance 提出了基于文本指导 + 首尾帧图片指导的视频生成方法,使得模型更充分地关注和学习视频的动态信息。

其中,首帧图片指导为整个视频内容提供了框架和素材。此外,通过将上一个视频片段的尾帧拿来作为下一个视频片段的首帧指导,可以生成更长的视频。文本描述提供了对视频动作的描述。尾帧图片指导为视频生成过程提供了结束状态的信息。作者提出了适配的方法,使得模型能接收比较粗糙的图片作为指导,这使得用户可以使用基本的图片编辑工具获得尾帧图片指导。

官网的信息显示,目前还在积极地迭代模型效果中,未来 2-3 个月内就会放出人人可以试用的模型。目前,作者也提供了途径支持大家发送想要测试的样例,目前官网中已经放出了一些用户的测试样例:


如此看来,有了 PixelDance,只要有天马行空的想象力,人人都可以成为「百万特效大师」!

在CVer微信公众号后台回复:PixelDance,可以下载本论文pdf,学起来!

CVPR / ICCV 2023论文和代码下载

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

计算机视觉和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-计算机视觉或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
互联网校招 | ByteDance字节跳动24届校招补录48小时倒计时!行业独角兽,各地有岗,免费三餐,互联网独角兽龙行龘(dá)龘(dá)!这些三叠字怎么念?扩散模型图像理解力刷新SOTA!字节复旦团队提出全新「元提示」策略红色日记 打苇机 8.26-31API架构图解:如何以图表形式展现复杂系统龙行龘(dá)龘(dá)!2024央视春晚宣布→最快10天拿Offer!字节跳动2024寒假实习全面开启中国式非自愿单身:认识 incel,理解 incel,成为 incel冰雹和雷雨云一句话让小姐姐为我换了N套衣服,谷歌卷出视频生成新高度,网友:竞赛加码视频生成新突破:PixelDance,轻松呈现复杂动作与炫酷特效ByteDance字节跳动24届校招补录最后机会!行业独角兽,各地有岗,免费三餐,互联网独角兽小模型也能进行上下文学习!字节&华东师大联合提出自进化文本识别器消息不实!字节跳动回应PICO将被关停传闻我们的一年(21)辛苦抢来的营地,要不要珍惜?Stability AI杀回来了:视频生成新Demo效果惊人,网友:一致性超群复旦大学联合华为诺亚提出VidRD框架,实现迭代式的高质量视频生成海关总署:我国消费电子产业进出口呈现复苏势头谷歌或1月25日推出Pixel 8 Pro手机新配色两情难相知(十五)视频里有前男友?谷歌最新AI视频生成器 Lumiere,轻松让他消失“你”“我”“他”小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器龙行龘(dá)龘(dá)!效果超越Gen-2!字节最新视频生成模型,一句话让绿巨人戴上VR眼镜中国首次成为全球汽车最大出口国,字节跳动回应懂车帝将独立,锂电池取得大突破,董宇辉新账号带货超东方甄选,这就是今天的其他大新闻!扩散模型图像理解力刷新SOTA!字节联合复旦团队提出全新「元提示」策略字节 PICO 大裁员,骨干离岗,网友:字节跳动也跳不动了?两倍薪资!字节跳动加速将TikTok员工迁至美国Meta生成式AI连放大招:视频生成超越Gen-2,动图表情包随心定制犀利!字节跳动早期投资人痛批抖音及张一鸣抖音跳舞不用真人出镜,一张照片就能生成高质量视频!字节新技术连抱抱脸CTO都下场体验了早鸟报|淘宝推出全网首次数字人拍卖;字节跳动旗下PICO调整组织架构;视频号双11推出“先用后付”专场...紧急!字节跳动、网易抢跑,秋招补录全面开启国内员工转海外岗!字节跳动扩大海外版图!加拿大、澳洲研发中心筹建中
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。