Redian新闻
>
3D AI生成出新玩法了:无需数小时,只要45秒,单张图片即可生成 3D模型

3D AI生成出新玩法了:无需数小时,只要45秒,单张图片即可生成 3D模型

公众号新闻

机器之心专栏

机器之心编辑部

45 秒单张图片变 3D,无需大量 3D 数据和逐物体优化。


3D AI 生成最近发展得如火如荼,不少最新工作都能够从一句话 / 一张图生成高质量的三维模型。然而从去年下半年的 DreamFusion 和 Magic3D 到最新的 ProlificDreamer,绝大多数工作都通过对每个物体进行优化的方式来生成 3D 模型。这种方式使得现有的 3D AI 生成方法都非常耗时,譬如 ProlificDreamer 的作者就曾在知乎上表示方法目前的主要局限之一便是生成时间太慢了!


“一般而言,使用 stable-diffusion 生成一张图片在 PC 上只需要几秒钟,哪怕微调 LoRA 也很快;然而,我们生成一个 3D 物体需要数个小时,尤其是分辨率越高越慢。这主要是因为我们本质上还是借助于随机梯度下降来优化 3D 表示(NeRF 或 Mesh)的参数,这样的优化过程需要很多步的迭代,并且对 GPU 的显存也有一定要求。我们最终展示的效果是 512 分辨率的结果,这些结果的优化确实非常耗时,所以目前个人使用者还是很难在 PC 上直接使用我们的算法。


高昂的推断成本不仅使得研究者的实验迭代变慢,也阻碍了 3D AIGC 技术对于很多实时应用的商业落地和推广。


然而就在最近,来自 UCSD 等机构的研究者发布了一项最新工作,One-2-3-45,它摆脱了逐物体优化的生成范式,能够在 45 秒内从任意单张图片 / 文本生成 3D 纹理网格,且在测试时无需针对每个物体进行优化。



  • Project Page: http://one-2-3-45.com 

  • Paper: https://arxiv.org/pdf/2306.16928.pdf

  • Code: https://github.com/One-2-3-45/One-2-3-45

  • Demo:https://huggingface.co/spaces/One-2-3-45/One-2-3-45


单张图片生成 3D


通过与现有的文生图模型(如 DALL-E2)结合,One-2-3-45 也支持从任意文本生成 3D 模型。


文本生成 3D


论文一发布,就被推特大佬 AK 宣传转发,并受到网友的广泛关注。



网友 Xin Kong 评论到:“这是最好的时代,也是最坏的时代。这可能是 3D 扩散生成中的 Instant NGP 时刻。30 分钟 ->45 秒,无分数蒸馏,2D 视图到 3D 是必经之路!”



方法


由于 3D 数据的稀缺性,学术界最近的绝大多数 3D AI 生成工作都通过利用 2D 扩散生成模型来指导 3D 表示(如 NeRF)的优化,从而实现 3D 内容生成。One-2-3-45 没有遵循这个范式,而是先利用 2D 扩散模型生成多视角图像,然后希望利用这些多视角图像来重建 3D 模型。


具体而言,One-2-3-45 利用了一个基于视角控制的 2D 扩散生成模型,Zero123。该模型通过微调 Stable Diffusion,实现了输入单张图片和一个相机的相对位姿变换,便能够预测该物体在变换后的视角下的对应图像的能力。



通过借助这类 2D 扩散生成模型,我们能够从一张图片预测生成对应的多视角图像。



一个很自然的想法,便是将这些多视角图像传给经典的基于 NeRF 的重建方法来生成 3D 模型。然而研究者发现这样并不能生成高质量的 3D 模型(如下图所示)。



这其实是因为网络预测的多视角图像具有潜在的不一致性。然而对于基于 NeRF 的优化类重建方法,一些微小的不一致便已足以使得方法崩溃。



如上图所示,通过将预测的多视角图像与真实数据进行对比,研究者发现 Zero123 预测的多视角图像虽然不具备像素级别的高精确度(PSNR 不高)。但整体轮廓(mIoU)以及语义 / 感知相似性(CLIP 相似度)都很高,尤其当相机相对位姿变换较小时。这些结果说明了用网络预测的多视角图像进行三维重建的可能性。


在 One-2-3-45 中,研究者使用了基于 cost volume 的可泛化 NeRF 类的方法来实现三维重建。这类方法将多视角图像作为输入,在训练后能够直接推断 3D 内容而无需额外优化。由于这类方法通过从训练数据学习了有关多视角预测不一致性的先验知识,他们更有希望能从不一致的多视角预测中生成 3D 模型。


One-2-3-45 方法流程图


具体来说,One-2-3-45 首先通过对多视角图像抽取 2D 图像特征,并通过相机位姿来构建 3D cost volume。然后 One-2-3-45 通过 3D 卷积神经网络来从 3D cost volume 推断输入多视角图像对应的潜在 3D 几何,并最后通过 MLP 来预测物体的 SDF 和颜色,进行体积渲染。


通过结合 2D 扩散生成模型和基于 cost volume 的可泛化 NeRF,One-2-3-45 能够在一次前向传播中生成 3D 模型。摆脱了耗时的逐物体 3D 优化后,One-2-3-45 生成一个高质量 3D 纹理网格的时间从数小时降到了 45 秒!


然而在实现这个想法的过程中,研究人员却遇到了一些具体的挑战:


1. 现有的可泛化 NeRF 方法大都是将具有一致性的多视角图像作为输入(渲染自真实物体)。但如何将这类方法扩展到不完全一致的多视角预测上呢?


2. 现有的可泛化 NeRF 方法很多都专注于前景区域的重建。但在 3D 生成的问题中,我们希望得到 360 度的完整模型。


3. 由于 Zero123 采用了球坐标系来描述相对相机位姿。为了提供多视角图像的相机位姿给重建模块,我们需要得到输入图片对应的相机俯仰角(elevation)。


为了解决这些挑战,研究者提出了一系列关键的训练策略(如分阶段预测多视角图像)和一个俯仰角预测模块。详情请参考原论文。


研究者还特别指出由于重建模块主要依赖于局部的对应关系(correspondence),因此其只需少量的数据进行训练,并具有很强的可泛化性。


与现有 3D AI 生成方法的比较


研究者表示,得益于 “2D 多视角预测 + 3D 可泛化重建” 的技术路线,One-2-3-45 与现有的 3D AI 生成方法相比,除了推断时间显著降低外,还在输入的多样性、输出的几何表示、结果的 3D 一致性、与输入的相似性,以及所需的 3D 数据规模上,具有多方面的优势。



具体来说,许多基于逐物体优化的方法虽然能生成高质量 3D 内容,但目前只支持文字生成 3D(如 DreamFusion,Magic3D 和 ProlificDreamer)。而 One-2-3-45 既支持文字生成 3D 也支持图片生成 3D。下图展示了 One-2-3-45 与现有的主要图生 3D 的方法的对比。


与现有图生 3D 方法的比较


可以看到一些基于 NeRF 优化的方法(如 RealFusion 和 3D Fuse)虽然从新视角合成的角度上得到了还不错的结果,但 NeRF 所输出的几何质量却不尽人意。类似地,Point-E 的原生输出是稀疏点云,在经过后处理重建后仍易存在部分区域破碎缺失的问题。而 One-2-3-45 通过预测 SDF 来提取网格,输出的几何质量要更具优势。


另外一个重要的点便是现有方法的输出没有完全遵循(adherence)输入图片的指示。比如对于第一列的背包,Zero123+SD 生成的背包只有一条背带;Shap-E 生成的背包没有背带。对于第二列的单只灭火器,Shap-E 和 Point-E 都预测了两个两个连体的灭火器。对于第四列的凳子,可以看到只有 One-2-3-45 和 3DFuse 保留了输入图片的椅腿结构。但需要注意的是,3DFuse 生成的所有 3D 内容在具体风格和细节上均与输入图片有较大出入。


此外,研究者还指出基于逐物体优化的方法通常会遇到 3D 一致性的挑战。他们生成的 3D 模型通常会出现多面现象(或者 Janus 问题)。比如在上图中,RealFusion 生成了一个双面背包。相比之下,One-2-3-45 生成结果的 3D 一致性要好很多。


研究者还提到了 OpenAI 的 Point-E 和 Shap-E 在训练时用到了数百万级别的内部 3D 数据。由于 3D 数据的稀缺性,这样的训练数据规模目前对于很多研究者 / 机构来说还是比较严苛的条件。


与现有文生 3D 方法的比较


可以看到除了之前提过的问题外,现有的文生 3D 方法对输入文本的把握能力并不是很强。比如,对于输入文本 “一棵空心的大树”,“一只有绿腿的橙色凳子”,“一顶哈瓦那风格菠萝形状的帽子” 以及 “一只木头质地的蘑菇” 等,现有方法都无法生成精确对应的 3D 内容。相比之下,One-2-3-45 所采纳的在 2D 生成对应图片再提升到 3D 似乎是一条能够对输入文本有更加精确控制的路线。


结语


One-2-3-45 提出了 “2D 多视角预测 + 3D 可泛化重建” 这样一项新颖的 3D AI 生成玩法,并在许多方面都展示出了其优越性。虽然目前 One-2-3-45 的生成质量可能还比不上部分基于逐物体优化的文生 3D 模型,但这个新玩法的探索和提高空间可能是充满潜力的。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
都夸自己是某森平替!我就服它!官方3599,只要499元!杀疯了极端分子和网暴希腊阿索斯山(Mount Athos),山间隐居急招 | 400元/小时,念出书中内容即可,无需经验,在家可做移民局新举:无需致电,申请人即可在其官网,自助改约“指纹采集”时间历史小说《黄裳元吉》第九十章 南返无需任何3D数据,直接文本生成高质量3D内容,清华朱军团队带来重大进展OpenAI文本生成3D模型再升级,数秒完成建模,比Point·E更好用英伟达推出新AI模型Neuralangelo 可将视频转换为高精3D模型一句话搞定3D模型纹理贴图,全程只需30秒,港大港中大TCL出品 | ICCV'23 Oral为土耳其大选添点色彩——体验正宗的土耳其风味——像土耳其厨师一样烹制美味的士每拿肉丸马克谈天下(378) 聊聊世界各国的教师节急招,400/小时,念出书中内容即可,无需经验,在家可做!无需精子卵子,科学家成功合成出人类胚胎?!人造宝宝指日可待??你的DragGAN并不需要点跟踪!中科大和上海AI Lab提出FreeDrag:无需点跟踪即可稳定拖动语义内容英伟达馋哭建模师!投喂随意视频,直出3D模型,华人一作登CVPR 2023几张照片即可定制自己的3D化身,还能换装!南京大学发布AvatarBooth:3D模型的制作门槛被打下来了!推特打击AI虚假图片,将对图片添加由用户生成的事实核查信息兰博基尼最新超跑曝光:零百加速2.5秒,售价630万!无需人类反馈即可对齐!田渊栋团队新作RLCD:无害型、有益性、大纲写作全面超越基线模型ICCV 2023 | 图像重缩放新方法:无需对模型重新训练即可提高性能CVPR 2023 | 三维场景生成:无需任何神经网络训练,从单个样例生成多样结果我家娃从幼儿园穿到小学的童装,买过的都说太值了,只要49元起速度提升数十倍,只需一张图一句话,谷歌新模型20秒即可实现变脸突破自监督学习效率极限!马毅、LeCun联合发布EMP-SSL:无需花哨trick,30个epoch即可实现SOTA单张A100,50亿步训练!英伟达开源最强虚拟角色定制模型,超逼真动作零样本生成,游戏动画行业要变天CVPR 2023 | 小红书提出OvarNet模型:开集预测的新SOTA,“万物识别”有了新玩法爆款樱花裤清仓处理,只要49元,赶紧捡漏,仅限24小时!!!今天上线!Meta推出新社媒APP:推特和Ins结合:无需注册就能互动!单张图片引导,保留主体,风格百变,VCT帮你轻松实现「单张图像重建3D网格」告别卡顿,从30分钟提速到45秒!浙大、加州大学等联合发布One-2-3-45:在线Demo可试玩0提示词1张照片生成视频,Gen-2新玩法刷屏!网页版免费可玩无需微调,一张照片即可换脸、换背景!NUS等华人团队破局个性化视频生成这个傻瓜式地图神器火了!仅需1张图片,秒变3D城市模型!(附神器下载)谷歌医疗版ChatGPT已在诊所实测!可生成诊断做总结,多个指标和真人医生相当
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。