Redian新闻
>
Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性idea

Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性idea

公众号新闻

机器之心报道

机器之心编辑部

连续「预测下一个 token」能生成句子,同理,连续「预测下一个三角形网格」也能生成 3D 模型。


在计算机图形学中,「三角形网格」是 3D 几何物体的主要表现形式,也是游戏、电影和 VR 界面中主要使用的 3D 资产表示方法。业界通常基于三角形网格来模拟复杂物体的表面,如建筑、车辆、动物,常见的几何变换、几何检测、渲染着色等动作,也需要基于三角形网格进行。


与点云或体素等其他 3D 形状表示法相比,三角形网格提供了更连贯的表面表示法:更可控、更易操作、更紧凑,可直接用于现代渲染流水线,以更少的基元获得更高的视觉质量。



此前,已有研究者尝试过使用体素、点云和神经场等表示方法生成 3D 模型,这些表示也需要通过后处理转换成网格以在下游应用中使用,例如使用 Marching Cubes 算法进行 iso-surfacing 处理。


遗憾的是,这样做的结果是网格密度过高、网格划分过细,经常出现过度平滑和等值曲面化带来的凹凸不平的错误,如下图所示:



相比之下,3D 建模专业人员建模的 3D 网格在表示上更加紧凑,同时以更少的三角形保持了清晰的细节。


一直以来,很多研究者都希望解决自动生成三角形网格的任务,以进一步简化制作 3D 资产的流程。


在最近的一篇论文中,研究者提出了新的解决方案:MeshGPT,将网格表示直接生成为一组三角形。



论文链接:https://nihalsid.github.io/mesh-gpt/static/MeshGPT.pdf


受语言生成模型 Transformer 的启发,他们采用了一种直接序列生成方法,将三角形网格合成为三角形序列。


按照文本生成的范式,研究者首先学习了三角形词汇,三角形被编码为潜在量化嵌入。为了鼓励学习到的三角形嵌入保持局部几何和拓扑特征,研究者采用了图卷积编码器。然后,这些三角形嵌入由 ResNet 解码器解码,该解码器将其处理表示三角形的 token 序列,生成三角形的顶点坐标。最终,研究者在所学词汇的基础上训练基于 GPT 的架构,从而自动生成代表网格的三角形序列,并获得了边缘清晰、高保真度的优势。


在 ShapeNet 数据集上进行的多个类别的实验表明,与现有技术相比,MeshGPT 显著提高了生成 3D 网格的质量,形状覆盖率平均提高了 9%,FID 分数提高了 30 个点。



在社交媒体平台上,MeshGPT 也引发了热议:


有人说:「这才是真正革命性的 idea。」



一位网友指出,该方法的亮点在于克服了其他 3D 建模方法的最大障碍,即编辑能力。



有人大胆预测,或许每一个自上世纪 90 年代以来尚未解决的难题,都可以从 Transformer 中得到启发:



也有从事 3D / 电影制作相关行业的用户对自己的职业生涯表示担忧:



不过,也有人指出,从论文给出的生成示例来看,这一方法还未达到大规模落地的阶段,一位专业建模人员完全可以在 5 分钟内制作出这些网格。



这位评论者表示,下一步可能是由 LLM 控制 3D 种子的生成,并将图像模型添加到架构的自回归部分。走到这一步后,游戏等场景的 3D 资产制作才能实现大规模的自动化。


接下来,就让我们看看 MeshGPT 这篇论文的研究细节。


方法概述


受大语言模型进步的启发,研究者开发了一种基于序列的方法,将三角形网格作为三角形序列进行自回归生成。这种方法能生成干净、连贯和紧凑的网格,具有边缘锐利和高保真的特点。



研究者首先从大量的 3D 物体网格中学习几何词汇的嵌入,从而能够对三角形进行编码和解码。然后,根据学习到的嵌入词库,以自回归下索引预测的方式训练用于网格生成的 Transformer。



为了学习三角形词汇,研究者采用了图形卷积编码器,对网格的三角形及其邻域进行操作,以提取丰富的几何特征,捕捉 3D 形状的复杂细节。这些特征通过残差量化被量化为 codebook 中的 Embedding,从而有效减少了网格表示的序列长度。这些内嵌信息在排序后,在重建损失的指导下,由一维 ResNet 进行解码。这一阶段为 Transformer 的后续训练奠定了基础。


然后,研究者利用这些量化的几何嵌入,训练出一个 GPT 类型的纯解码器 transformer。给定从网格三角形中提取的几何嵌入序列,训练 transformer 来预测序列中下一个嵌入的 codebook 索引。


训练完成后,transformer 可以自回归采样,以预测嵌入序列,然后对这些嵌入进行解码,生成新颖多样的网格结构,显示出与人类绘制的网格类似的高效、不规则三角形。



MeshGPT 采用图卷积编码器处理网格面,利用几何邻域信息捕捉表征 3D 形状复杂细节的强特征,然后利用残差量化方法将这些特征量化成 codebook 嵌入。与简单的向量量化相比,这种方法能确保更好的重建质量。在重建损失的指导下,MeshGPT 通过 ResNet 对量化后的嵌入进行排序和解码。




该研究使用 Transformer 从预先学习的 codebook 词汇中生成网格序列作为 token 索引。在训练过程中,图形编码器会从网格面提取特征,并将其量化为一组面嵌入。这些嵌入会被扁平化,用开始和结束 token 进行标记,然后送入上述 GPT 类型的 transformer。该解码器通过交叉熵损失进行优化,预测每个嵌入的后续 codebook 索引。


实验结果


该研究将 MeshGPT 与常见的网格生成方法进行了比较实验,包括:


  • Polygen,通过首先生成顶点,然后生成以顶点为条件的面来生成多边形网格;

  • BSPNet,通过凸分解来表征网格;

  • AtlasNet,将 3D 网格表征为多个 2D 平面的变形。


此外,该研究还将 MeshGPT 与基于神经场的 SOTA 方法 GET3D 进行了比较。



如图 6、图 7 和表 1 所示,在全部的 4 个类别中,MeshGPT 都优于基线方法。MeshGPT 可以生成尖锐、紧凑的网格,并具有较精细的几何细节。


具体来说,与 Polygen 相比,MeshGPT 能生成具有更复杂细节的形状,并且 Polygen 在推理过程中更容易积累错误;AtlasNet 经常出现折叠瑕疵(folding artifact),导致多样性和形状质量较低;BSPNet 使用平面的 BSP 树往往会产生具有不寻常三角测量模式的块状形状;GET3D 可生成良好的高层次形状结构,但三角形过多,且平面不完美。





如表 2 所示,该研究还让用户对 MeshGPT 生成网格的质量进行了评估,在形状和三角测量质量方面,MeshGPT 明显优于 AtlasNet、Polygen 和 BSPNet。与 GET3D 相比,大多数用户更喜欢 MeshGPT 生成的形状质量(68%)和三角测量质量(73%)。



形状新颖性。如下图 8 所示,MeshGPT 能生成超出训练数据集的新奇形状,确保模型不仅仅是检索现有形状。




形状补全。如下图 9 所示,MeshGPT 还可以基于给定的局部形状推断出多种可能的补全,生成多种形状假设。





© THE END 

转载请联系本公众号获得授权

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
如何降低视觉Transformer计算成本?时间冗余方法让人大吃一惊NeurIPS 2023 | MCUFormer: 可在内存有限微控制器上部署的Vison Transformer模型从20亿数据中学习物理世界,基于Transformer的通用世界模型成功挑战视频生成夏婳:两情难相知(十七)ChatGPT生成虚假数据集以支持科学假设;英伟达助基因泰克用生成式AI加速药物研发丨AIGC日报ChatGPT的力量来自“变形金刚”(Transformer)? | 白若然、潘瓒Transformer变革3D建模!MeshGPT来了!效果惊动专业建模师。。。Hyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见谷歌DeepMind力证:Transformer模型无法超越训练数据进行泛化!GPT-4终局是人类智慧总和!简化版Transformer来了!网友:年度论文马斯克让盗梦空间成真?初创公司用Transformer诱导清醒梦,Neuralink技术操控梦境效果惊人AI,美丽新世界?养虎为患?PyTorch最新工具mm来了!3D可视化矩阵乘法、Transformer注意力!大嫂杨绒花(下)起底PC新机皇:高通4nm芯片,Arm架构Windows系统,内置Transformer加速,还配了5G和WiFi7ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞当下一代Transformer遇上ViT:Vision RetNet已来!LLM一句话瞬间生成3D世界,未公布代码已获141星!或将引发3D建模行业革命OpenAI回应ChatGPT服务故障;新研究以99%准确率识别ChatGPT生成化学论文;三星发布自研大模型丨AIGC日报NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer屠榜顶会!Transformer中文视频教程发布南开&山大&北理工团队开发trRosettaRNA:利用Transformer网络自动预测RNA 3D结构【天与湖】 一组小诗 6Meta对Transformer架构下手了:新注意力机制更懂推理我在Performer中发现了Transformer-VQ的踪迹Yann LeCun点赞!Meta对Transformer架构下手了:新注意力机制更懂推理简化版Transformer来了,网友:年度论文谷歌DeepMind力证:GPT-4终局是人类智慧总和!Transformer模型无法超越训练数据进行泛化NeurIPS 2023 | MixFormerV2:基于Transformer的高效跟踪器现代文明的思维逻辑价值判断Stability AI杀回来了:视频生成新Demo效果惊人,网友:一致性超群「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?BEV+Transformer架构加速“上车”,智能驾驶市场变革开启LLM-as-Agent、VLAM的机会、「算力困境」和对Transformer的质疑
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。