Runway新功能「运动笔刷」再次惊艳AI圈:随手一涂,图片就动起来了
机器之心报道
编辑:蛋酱
网友:我都不敢想象一年后的视频技术会有多先进。
一段五十秒的预告视频,再次让 AI 圈沸腾了。
昨日 Runway 宣布,即将在视频生成工具 Gen-2 中上线「Motion Brush」(运动笔刷)功能,一种可控制生成内容移动的新方法。
这次的玩法,甚至不需要输入文字,只要有手就够了。
任选一张图片,画笔涂抹到哪里,哪里就立刻动起来:
不管是水流、云彩、火焰、烟雾还是人物,都能高度还原其动态。这就是传说中的「点石成金」吗?
网友看完表示:我都不敢想象一年后的视频技术会有多先进……
毕竟在 2023 年初,从文本生成视频还是一件相当困难的事情。
Runway 曾在今年 2 月推出了 Gen-1,功能非常丰富,包括风格化、故事版、蒙版、渲染、自定义等等。看起来,这是一个专注于「编辑」视频的工具。
但今年 3 月,Gen-2 的面世改变了一切,它新增了文字、图片生成视频功能。用户仅需输入文字、图像或文字加图像的描述,Gen-2 即可在很短的时间内生成相关视频。
这是市场上第一个公开可用的文本到视频模型。比如输入一段纯文字「午后的阳光透过纽约阁楼的窗户照进来」,Gen-2 会直接「脑补」出视频:
现在,只需几个 prompt 和手势,我们就能生成像样的视频并进一步编辑,复杂的视频编辑软件和冗长的制作流程一去不复返。
如果将文生图神器 Midjourney 与文生视频神器 Gen-2 结合起来使用,用户完全可以不动笔,直出大片。
当然,Gen-2 也是有竞争对手的,就是 Pika Labs,特别是后者还是免费的。
以上画面由 Pika Labs 生成。
对于这种疯狂卷的态势,一部分用户是非常期待的:「2024 年,Pika Labs 和 Runway 之间的拉扯一定很有意思。」
传闻中,OpenAI 也有视频生成相关的技术。有网友表示:「这让我不禁好奇,OpenAI 的 any-to-any 模型在生成视频方面究竟有多出色,因为这家公司通常都走在别人前面。」
未来的视频和电影制作行业,会因此而颠覆吗?
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者