Redian新闻
>
一句话搞定3D模型纹理贴图,全程只需30秒,港大港中大TCL出品 | ICCV'23 Oral

一句话搞定3D模型纹理贴图,全程只需30秒,港大港中大TCL出品 | ICCV'23 Oral

公众号新闻
萧箫 发自 凹非寺
量子位 | 公众号 QbitAI

用上扩散模型,3D物体生成纹理一句话就能搞定!

像是输入“一张带有棕色和黑色几何图案的椅子”,扩散模型就能立刻给它复个古,贴上颇具年代感的纹理:

甚至只是丢给它一张看不出桌面长啥样的“截图”,AI也能立刻凭借想象力,给桌面加上木质的细节纹理:

要知道,给3D物体加上纹理,可不只是“变变颜色”这么简单。

它包含粗糙度、反射、透明、漩涡、泛光等大量参数,要想设计好不仅需要了解材质、灯光、渲染等知识,还需要反复测试渲染效果并修改。如果材质有变,更是可能“重头来过”。

游戏场景中纹理丢失的效果

然而,此前用AI设计出来的纹理又“不太能看”,因此设计纹理一直费时费力,成本也比较高。

现在,来自港大、港中文和TCL的研究人员,搞出了一种AI设计3D物体纹理的新方法,不仅完美保留物体之前的形状,而且设计出来的纹理真实感更强、完美贴合物体表面。

目前这项研究已经被ICCV 2023收录Oral论文。

这究竟是怎么做到的?我们一起来看看。

用上扩散模型,3D纹理一句话搞定

此前用AI设计3D纹理,主要存在两类问题。

一类是生成的纹理不真实,细节有限:

另一类是生成过程中会对3D物体本身的几何做特殊处理,使得生成的纹理无法和原物体完美贴合,会“冒出”奇怪的形状:

因此,为了能确保3D物体结构稳定、同时生成细节逼真的纹理,这项研究设计了一个名叫Point-UV diffusion的框架。

这个框架包含“粗设计”和“精加工”两个模块,都基于扩散模型打造,不过二者用到的扩散模型有所不同。

首先在“粗设计”模块中,训练一个以形状特征(包括表面法线、坐标和遮罩)为输入条件的3D扩散模型,用来预测物体形状中每个点的颜色,从而生成一个粗糙纹理图像效果:

然后在“精加工”模块中,又设计了一个2D扩散模型,进一步将之前生成的粗糙纹理图像和物体形状作为输入条件,用来生成更加精细的纹理:

之所以采取这种设计结构,是因为之前的高分辨率点云生成方法,计算成本通常过高。

用这种两阶段生成的方法,不仅节省了计算成本,让两个扩散模型“各司其职”,而且相比之前的方法,不仅保留了原来3D物体的结构,生成的纹理也要更加精细。

至于通过输入文字或图片控制生成效果,则是CLIP的“功劳”。

针对输入,作者会先用预训练的CLIP模型提取文本或图像embeddings,然后将它输入一个MLP模型中,最终将条件整合进“粗设计”和“精加工”两阶段的网络中。

这样一来,就能实现通过文字和图像控制生成的纹理,从而得到最终输出结果。

所以,这样的模型实现效果究竟如何?

生成速度从10分钟缩短至30秒

先来看看Point-UV diffusion的生成效果。

从效果图中可见,除了桌椅,Point-UV diffusion同样还能生成汽车等物体的纹理,种类更丰富:

不仅能根据文字生成纹理:

也能根据一张图像生成对应物体的纹理效果:

除此之外,作者们还将Point-UV diffusion生成纹理效果与之前的方法做了个对比。

从图中可见,与Texture Fields、Texturify、PVD-Tex等其他纹理生成模型相比,Point-UV diffusion在结构和精细度上都表现出了更好的效果。

作者还提到,同样硬件配置下,相比Text2Mesh需要10分钟的计算,Point-UV diffusion只需要30秒

不过,作者也提到了Point-UV diffusion目前还存在的一些局限之处,例如当UV贴图存在太多“碎片化”的部分时,它还是无法生成无缝的纹理效果。此外,由于依赖3D数据进行训练,而3D 数据的精细化质量和数量目前还不能达到2D 数据的水平,生成的效果暂时还无法达到像2D图像生成那么精细化的效果。

对这项研究感兴趣的小伙伴,可以戳下方论文看看~

论文地址:
https://cvmi-lab.github.io/Point-UV-Diffusion/paper/point_uv_diffusion.pdf

项目地址(还在施工中):
https://github.com/CVMI-Lab/Point-UV-Diffusion

「量子位智库·仿生机器人沙龙」招募中

9月6日,「量子位智库·仿生机器人沙龙」将在北京中关村举办,欢迎全行业仿生机器人玩家参与 ~

点击图片了解详情,企业报名可联系活动负责人王琳玉(微信:iris_wang17,请备注企业+姓名)。沙龙观众通道后续开放,敬请期待 ~


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ICCV 2023 | PointCLIP V2:结合CLIP和GPT的3D开放世界分类、分割网络体验 | 在香港找工作,港中大和海归学霸竟然败给一个本地学渣……ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!“你的彩平很好看,就是贴图老土了点!”(附贴图下载)《走过百年》&《漫天樱花飞》一句话搞定数据分析,浙大全新大模型数据助手,连搜集都省了ICCV 2023 中国遥遥领先!华人拿下最佳论文和最佳学生论文!SAM和ControlNet开启CV新纪元!手机端生成3D模型,iOS 17上3D捕捉与建模app未发先火台湾剧《造浪者》第四章 三民主义救中国 (1)超逼真3D生成模型!华南理工贾奎团队ICCV'23新作:支持重新照明、编辑和物理仿真这条跨海高铁开跑!全程只要……中科院、阿里出品FF3D,创建自定义风格化3D人像只需三分钟只要一句话、30秒,AI就能做个PPT?最佳微小说:看完只需20秒,慢慢咀嚼需要20年𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶内衣裤,软弹有度,上身0束缚~港中大和商汤提出HPS v2:为文本生成图像模型提供更可靠的评价指标速度提升数十倍,只需一张图一句话,谷歌新模型20秒即可实现变脸捡漏!只需39元到手浴巾三件套,面料柔软亲肤,像棉花一样软乎乎~懂3D的语言模型来了!UCLA、上交、MIT等联合提出3D-LLM:性能大涨9%对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4画图没有高级感,那是你没用这套神仙材质贴图!(附贴图下载)ICCV 2023 | 港中文MMLab: 多帧光流估计模型VideoFlow,首次实现亚像素级别误差ICCV 2023 | CLIP驱动的器官分割和肿瘤检测通用模型5101 血壮山河之武汉会战 浴血田家镇 9一周工作5分钟完成!新版文心一言实测:秒秒钟出广告片,几句话搞定代码,办公科研生产力直接ProMax雨夜賞燈記两行代码解决大模型对话局限,港中文贾佳亚团队联合 MIT 发布超长文本扩展技术文生3D模型大突破!MVDream重磅来袭,一句话生成超逼真三维模型ICCV 2023 | 只需过一次CLIP!美团&港大提出高效的开放字典语义分割框架DeOP国泰又惹事!网友投诉空姐全程只讲粤语只需39的云朵超柔浴巾三件套,我看谁还不知道!11月必看!“新世界三大男高音”Juan Diego Flórez首次亮相澳洲!ICCV 2023 Oral | CLIP-LIT将CLIP用于无监督背光图像增强3D AI生成出新玩法了:无需数小时,只要45秒,单张图片即可生成 3D模型
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。