一句话搞定3D模型纹理贴图,全程只需30秒,港大港中大TCL出品 | ICCV'23 Oral
萧箫 发自 凹非寺
量子位 | 公众号 QbitAI
用上扩散模型,3D物体生成纹理一句话就能搞定!
像是输入“一张带有棕色和黑色几何图案的椅子”,扩散模型就能立刻给它复个古,贴上颇具年代感的纹理:
甚至只是丢给它一张看不出桌面长啥样的“截图”,AI也能立刻凭借想象力,给桌面加上木质的细节纹理:
要知道,给3D物体加上纹理,可不只是“变变颜色”这么简单。
它包含粗糙度、反射、透明、漩涡、泛光等大量参数,要想设计好不仅需要了解材质、灯光、渲染等知识,还需要反复测试渲染效果并修改。如果材质有变,更是可能“重头来过”。
△游戏场景中纹理丢失的效果
然而,此前用AI设计出来的纹理又“不太能看”,因此设计纹理一直费时费力,成本也比较高。
现在,来自港大、港中文和TCL的研究人员,搞出了一种AI设计3D物体纹理的新方法,不仅完美保留物体之前的形状,而且设计出来的纹理真实感更强、完美贴合物体表面。
目前这项研究已经被ICCV 2023收录Oral论文。
这究竟是怎么做到的?我们一起来看看。
用上扩散模型,3D纹理一句话搞定
此前用AI设计3D纹理,主要存在两类问题。
一类是生成的纹理不真实,细节有限:
另一类是生成过程中会对3D物体本身的几何做特殊处理,使得生成的纹理无法和原物体完美贴合,会“冒出”奇怪的形状:
因此,为了能确保3D物体结构稳定、同时生成细节逼真的纹理,这项研究设计了一个名叫Point-UV diffusion的框架。
这个框架包含“粗设计”和“精加工”两个模块,都基于扩散模型打造,不过二者用到的扩散模型有所不同。
首先在“粗设计”模块中,训练一个以形状特征(包括表面法线、坐标和遮罩)为输入条件的3D扩散模型,用来预测物体形状中每个点的颜色,从而生成一个粗糙纹理图像效果:
然后在“精加工”模块中,又设计了一个2D扩散模型,进一步将之前生成的粗糙纹理图像和物体形状作为输入条件,用来生成更加精细的纹理:
之所以采取这种设计结构,是因为之前的高分辨率点云生成方法,计算成本通常过高。
用这种两阶段生成的方法,不仅节省了计算成本,让两个扩散模型“各司其职”,而且相比之前的方法,不仅保留了原来3D物体的结构,生成的纹理也要更加精细。
至于通过输入文字或图片控制生成效果,则是CLIP的“功劳”。
针对输入,作者会先用预训练的CLIP模型提取文本或图像embeddings,然后将它输入一个MLP模型中,最终将条件整合进“粗设计”和“精加工”两阶段的网络中。
这样一来,就能实现通过文字和图像控制生成的纹理,从而得到最终输出结果。
所以,这样的模型实现效果究竟如何?
生成速度从10分钟缩短至30秒
先来看看Point-UV diffusion的生成效果。
从效果图中可见,除了桌椅,Point-UV diffusion同样还能生成汽车等物体的纹理,种类更丰富:
不仅能根据文字生成纹理:
也能根据一张图像生成对应物体的纹理效果:
除此之外,作者们还将Point-UV diffusion生成纹理效果与之前的方法做了个对比。
从图中可见,与Texture Fields、Texturify、PVD-Tex等其他纹理生成模型相比,Point-UV diffusion在结构和精细度上都表现出了更好的效果。
作者还提到,同样硬件配置下,相比Text2Mesh需要10分钟的计算,Point-UV diffusion只需要30秒。
不过,作者也提到了Point-UV diffusion目前还存在的一些局限之处,例如当UV贴图存在太多“碎片化”的部分时,它还是无法生成无缝的纹理效果。此外,由于依赖3D数据进行训练,而3D 数据的精细化质量和数量目前还不能达到2D 数据的水平,生成的效果暂时还无法达到像2D图像生成那么精细化的效果。
对这项研究感兴趣的小伙伴,可以戳下方论文看看~
论文地址:
https://cvmi-lab.github.io/Point-UV-Diffusion/paper/point_uv_diffusion.pdf
项目地址(还在施工中):
https://github.com/CVMI-Lab/Point-UV-Diffusion
— 完 —
「量子位智库·仿生机器人沙龙」招募中
9月6日,「量子位智库·仿生机器人沙龙」将在北京中关村举办,欢迎全行业仿生机器人玩家参与 ~
点击图片了解详情,企业报名可联系活动负责人王琳玉(微信:iris_wang17,请备注企业+姓名)。沙龙观众通道后续开放,敬请期待 ~
点这里👇关注我,记得标星哦~
微信扫码关注该文公众号作者