30 秒等待一条 AI 视频。
作者 | 连冉
编辑 | 郑玄
这两天,AI 视频生成赛道越来越热闹了。
7 月 24 日,快手可灵全面开放内测;同一天,创企爱诗科技发布产品 PixVerse V2,可生成多达 40 秒的高质量短视频;26 日,独角兽智谱 AI 上线 AI 视频生成功能「清影」。
「清影」支持时长 6s 的文生视频/图生视频,清晰度为 1440x960。跟其他家不同,智谱 AI 这次直接推出付费版本——付费 5 元,解锁一天 24 小时的高速权益,付费 199 元,解锁一年的付费高速权益。
当然,所有人还是可以免费使用,不用排队,也不限次数。
一年的 AI 视频生成付费高速权益只要 199 元,跟不少互联网产品的会员包年费用相差无几,AI 视频生成好像真的离普通用户越来越近了。
目前,「清影」已上线清言 App,面向所有用户免费开放。在智谱清言 PC/APP 上,点击「清影智能体」,就可以开玩了。用户只需要输入一段文字,然后选择自己喜欢的风格,再配上「清影」自带的音乐,等待 30 秒左右,就可以生成一段视频。如果想要输出的视频更符合心中所想,还可以按照结构性原则来写 prompt(提示词),「清影」使用手册里给出了两款公式结构:笔者一步到位,按照复杂公式的要求输入了以下提示词:摄影机平移,一个红发小精灵睡在旋转木马的躺椅上,翻了个身。他浑身毛茸茸的,看起来很可爱,背景是璀璨银河,星光洒在精灵身上,随着旋转木马的转动,小精灵露出了满足的笑容。文生视频之外,「清影」这次也开放了图生视频的能力,输入一张图片+相应的提示词,或者只输入图片,「清影」就可以生成视频画面。极客公园养有许多猫猫,笔者随机抓拍了一只眼睛瞪圆溜溜的小猫,把这张图片喂给清影,再输入提示词:图中的猫咪给自己戴上墨镜,动作连贯自然且真实,画质高清。极客公园的小猫「毛栗栗」|图片来源:极客公园智谱 AI CEO 张鹏介绍,「清影」(Ying)底座的视频生成模型是 CogVideoX,它能将文本、时间、空间三个维度融合起来,参考了 Sora 的算法设计,它也是一个 DiT 架构,通过优化,CogVideoX 相比前代(CogVideo)推理速度提升了 6 倍。目前生成 6s 视频,模型花费的理论时间只需要 30s。为什么包括智谱 AI 在内的各家都在做多模态模型?核心是为了让机器能够更好地模拟人类的认知和感知机制,从而提升人工智能系统的整体性能和应用范围。多模态模型能够处理多种类型的数据,如语言、图像和声音等。这与人类大脑的多模态信息处理能力非常相似,因为人类大脑能够同时接收和处理来自不同感官通道的信息,例如视觉、听觉和触觉。并且,在多模态模型中,注意力机制被广泛使用来识别和融合不同模态的信息,这种机制在人类大脑中也存在。因此,智谱 AI 在 all in 大模型路线之初,就开始多模态领域的相关布局,这也是他们实现实现全系列产品矩阵对标 Open AI 的重要一环。从 2021 年开始,智谱 AI 先后研发了 CogView(NeurIPS'21)、 CogView2(NeurIPS'22)、CogVideo(ICLR'23)、Relay Diffusion(ICLR'24)、CogView3(2024)。智谱 AI 的文生视频模型就是基于 CogView 而来的 CogVideo,张鹏谈到了该模型的三大技术特点:首先,为了解决内容连贯性的问题,智谱 AI 自研了一个 3D VAE 结构,将原视频空间压缩至 2% 大小,大幅减少了视频扩散生成模型的训练成本和训练的难度。其次,在可控性上,智谱 AI 自研了一个端到端的视频理解模型,用于为海量的视频数据生成详细的贴合内容的描述文本,使得生成的视频能够理解超长的、超复杂的 prompt 指令,更符合用户的输入。
最后,模型采用了将文本、时间、空间三个维度全部融合起来的 Transformer 的架构,可高效利用模型参数将文本信息和视频信息进行混合。张鹏也谈到,目前,多模态模型的发展还处于相当初级的阶段,一是从生成视频的效果看,多模态模型对物理世界规律的理解、高分辨率、镜头动作连贯性以及时长等都有很多地方需要提升;二是从模型本身而言,现有的模型架构还不能高效地压缩视频信息,如果多模态模型继续发展,还是需要有更创新的新模型架构出现。他判断,未来大模型的技术突破方向之一依然是原生多模态大模型,scaling law 将继续发挥作用。本文为极客公园原创文章,转载请联系极客君微信 geekparkGO暴雪网易“复合”后首次参展 ChinaJoy,Logo 与网易并排。