Redian新闻
>
谷歌抢先手发布视频生成类AIGC,网友:可以定制电影了

谷歌抢先手发布视频生成类AIGC,网友:可以定制电影了

公众号新闻

机器之心报道

编辑:杜伟、陈萍

AIGC 已经火了很长时间了,出现了文本生成图像、文本生成视频、图像生成视频等广泛的应用场景,如今谷歌研究院的一项新研究可以让我们根据输入视频生成其他视频了!


我们知道,生成模型和多模态视觉语言模型的进展已经为具备前所未有生成真实性和多样性的大型文本到图像模型铺平了道路。这些模型提供了新的创作过程,但仅限于合成新图像而非编辑现有图像。为了弥合这一差距,基于文本的直观编辑方法可以对生成和真实图像进行基于文本的编辑,并保留这些图像的一些原始属性。与图像类似,近来文本到视频模型也提出了很多,但使用这些模型进行视频编辑的方法却很少。

在文本指导的视频编辑中,用户提供输入视频以及描述生成视频预期属性的文本 prompt,如下图 1 所示。目标有以下三个方面,1)对齐,编辑后的视频应符合输入文本 prompt;2)保真度,编辑后的视频应保留原始视频的内容,3)质量,编辑后的视频应具备高质量。

可以看到,视频编辑比图像编辑更加具有挑战性,它需要合成新的动作,而不仅仅是修改视觉外观。此外还需要保持时间上的一致性。因此,将 SDEdit、Prompt-to-Prompt 等图像级别的编辑方法应用于视频帧上不足以实现很好的效果。


在近日谷歌研究院等发表在 arXiv 的一篇论文中,研究者提出了一种新方法 Dreamix,它受到了 UniTune 的启发,将文本条件视频扩散模型(video diffusion model, VDM)应用于视频编辑


  • 论文地址:https://arxiv.org/pdf/2302.01329.pdf
  • 项目主页:https://dreamix-video-editing.github.io/

文中方法的核心是通过以下两种主要思路使文本条件 VDM 保持对输入视频的高保真度。其一不使用纯噪声作为模型初始化,而是使用原始视频的降级版本,通过缩小尺寸和添加噪声仅保留低时空信息;其二通过微调原始视频上的生成模型来进一步提升对原始视频的保真度。

微调确保模型了解原始视频的高分辨率属性。对输入视频的简单微调会促成相对较低的运动可编辑性,这是因为模型学会了更倾向于原始运动而不是遵循文本 prompt。研究者提出了一种新颖的混合微调方法,其中 VDM 也在输入视频各个帧的集合上进行微调,并丢弃了它们的时序。混合微调显著提升了运动编辑的质量。

研究者进一步利用其视频编辑模型提出了一个新的图像动画框架,如下图  2 所示。该框架包含了几个步骤,比如为图像中的对象和背景设置动画、创建动态相机运动等。他们通过帧复制或几何图像变换等简单的图像处理操作来实现,从而创建粗糙的视频。接着使用 Dreamix 视频编辑器对视频进行编辑。此外研究者还使用其微调方法进行目标驱动的视频生成,也即 Dreambooth 的视频版本。


在实验展示部分,研究者进行了广泛的定性研究和人工评估,展示了他们方法的强大能力,具体可参考如下动图。





对于谷歌这项研究,有人表示,3D + 运动和编辑工具可能是下一波论文的热门主题。


还有人表示:大家可以很快在预算内制作自己的的电影了,你所需要的只是一个绿幕以及这项技术:


方法概览

本文提出了一种新的方法用于视频编辑,具体而言:

通过逆向被破坏视频进行文本引导视频编辑

他们采用级联 VDM( Video Diffusion Models ),首先通过下采样对输入视频就行一定的破坏,后加入噪声。接下来是级联扩散模型用于采样过程,并以时间 t 为条件,将视频升级到最终的时间 - 空间分辨率。

在对输入视频进行破坏处理的这一过程中,首先需要进行下采样操作,以得到基础模型(16 帧 24 × 40),然后加入方差为高斯噪声,从而进一步破坏输入视频。

对于上述处理好的视频,接下来的操作是使用级联 VDM 将损坏掉的低分辨率视频映射到与文本对齐的高分辨率视频。这里的核心思想是,给定一个嘈杂的、时间空间分辨率非常低的视频,有许多完全可行的、高分辨率的视频与之对应。本文中基础模型从损坏的视频开始,它与时间 s 的扩散过程具有相同的噪声。然后该研究用 VDM 来逆向扩散过程直到时间 0。最后通过超分辨率模型对视频进行升级。

混合视频图像微调

仅利用输入视频进行视频扩散模型的微调会限制物体运动变化,相反,该研究使用了一种混合目标,即除了原始目标(左下角)之外,本文还对无序的帧集进行了微调,这是通过「masked temporal attention」来完成的,以防止时间注意力和卷积被微调(右下)。这种操作允许向静态视频中添加运动。


推理

在应用程序预处理的基础上(Aapplication Dependent Pre-processing,下图左),该研究支持多种应用,能将输入内容转换为统一的视频格式。对于图像到视频,输入图像被复制并被变换,合成带有一些相机运动的粗略视频;对于目标驱动视频生成,其输入被省略,单独进行微调以维持保真度。然后使用 Dreamix Video Editor(右)编辑这个粗糙的视频:即前面讲到的,首先通过下采样破坏视频,添加噪声。然后应用微调的文本引导视频扩散模型,将视频升级到最终的时间空间分辨率。


实验结果

视频编辑:下图中 Dreamix 将动作改为舞蹈,并且外观由猴子变为熊,但视频中主体的基本属性没有变:


Dreamix 还可以生成与输入视频时间信息一致的平滑视觉修改,如下图会滑滑板的小鹿:


图像到视频:当输入是一张图像时,Dreamix 可以使用其视频先验添加新的移动对象,如下图中添加了在有雾的森林中出现一头独角兽,并放大。


小屋旁边出现企鹅:


目标驱动视频生成:Dreamix 还可以获取显示相同主题的图像集合,并以该主题为运动对象生成新的视频。如下图是一条在叶子上蠕动的毛毛虫:


除了定性分析外,该研究还进行了基线比较,主要是将 Dreamix 与 Imagen-Video、 Plug-and-Play (PnP) 两种基线方法进行对比。下表为评分结果:


图 8 展示了由 Dreamix 编辑的视频和两个基线示例:文本到视频模型实现了低保真度的编辑,因为它不以原始视频为条件。PnP 保留了场景,但不同帧之间缺乏一致性;Dreamix 在这三个目标上都表现良好。


更多技术细节请参阅原论文。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
采编式AIGC视频生产流程编排实践黑海撞机事件后续,美国发布视频同时又派无人机,俄罗斯着手打捞真情书写人生文本和图片之后,AIGC的下个前沿将是视频生成一本有思想有情趣的好书不甘分手发私密视频敲诈前女友,男子被判刑一龙分二虎:世界岛的先手,终于易手一位平凡而伟大的中国母亲传谷歌中国裁员赔偿N+9+股票,微信可一键开启青少年模式,中通回应遭灰熊做空,蔚来自制电池招募苹果人才,这就是今天的其它大新闻!韩国综艺继父以游戏为由,不顾继女反抗狂摸全身,网友骂爆:可以直接报案了!陪嫁丫头抢先怀了孕,网友:这波宅斗戏彻底输了啊哈哈哈爆火的 ChatGPT 太强了!写代码、改 bug,网友:可取代 Stack Overflow 了一车主发布视频,网友直呼害怕!理想汽车:“不是灵异事件”突发!血腥大屠杀!加拿大退休警察冲进公寓内疯狂扫射,已致5人惨死!犯案前曾发布视频怒骂:“你们这些混蛋!”两人挤一小间!多伦多男子$750分租自己卧室!网友:可以看到CN电视塔诶奇葩情人节礼物大赏!网友:可以冷门,但不能邪门...乌国防部发布视频,将港台并列为“国家”还配错误旗帜,我方回应Transformer再胜Diffusion!谷歌发布新一代文本-图像生成模型Muse:生成效率提升十倍拜登终于得逞了!第3次世界大战,打响!外媒:我们已经失去先手?血腥大屠杀!73岁加拿大老兵公寓内疯狂扫射,致5人惨死!犯案前曾发布视频怒骂:“你们这些混蛋!”首个3D人像视频生成模型来了:仅需1张2D人像,眨眼、口型都能改变 | ICLR 2023谷歌新作:基于扩散模型的视频生成全球首发,国产开源「文本-视频生成」模型!免费在线体验,一键实现视频生成自由重磅!五角大楼发布视频:俄罗斯飞机向美国无人机倾倒燃料重磅!国内首地试行“2+3”,更多地方跟进“5+0”,这地官宣!澳外长刚抵京,总理就发布视频三个影帝都救不了这部电影了。电影院回来了,但我看不起电影了制片人杨城谈《艺术学院》:它很单纯,又难以定义万字圆桌实录:ChatGPT背后的AIGC,将生成怎样的浪潮?春节档电影观察:“疫情三年,我已经不想看到这样的电影了”Runway:AI Native Tools工厂,视频生成领域的字节跳动一个月前领导说我绩效大概率拿C,我改变心态开始到点下班,年底绩效果然拿了C,是不是被算计了?夏日里,看皑皑雪山,望万仞冰川品读彭小玲老师的《生活在英国》一书用AI生成视频,谷歌抢先发布!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。