Redian新闻
>
三维点云的开放世界理解,分类、检索、字幕和图像生成样样行

三维点云的开放世界理解,分类、检索、字幕和图像生成样样行

公众号新闻
机器之心专栏

机器之心编辑部

OpenShape 让三维形状的开放世界理解成为可能。

输入一把摇椅和一匹马的三维形状,能得到什么?



木马和坐在椅子上的牛仔!



木推车加马?得到马车和电动马;香蕉加帆船?得到香蕉帆船;鸡蛋加躺椅?得到鸡蛋椅。 



来自UCSD、上海交大、高通团队的研究者提出最新三维表示模型OpenShape,让三维形状的开放世界理解成为可能。


  • 论文地址:https://arxiv.org/pdf/2305.10764.pdf

  • 项目主页:https://colin97.github.io/OpenShape/ 

  • 交互demo: https://huggingface.co/spaces/OpenShape/openshape-demo

  • 代码地址:https://github.com/Colin97/OpenShape_code

通过在多模态数据(点云 - 文本 - 图像)上学习三维点云的原生编码器,OpenShape 构建了一个三维形状的表示空间,并与 CLIP 的文本和图像空间进行了对齐。得益于大规模、多样的三维预训练,OpenShape 首次实现三维形状的开放世界理解,支持零样本三维形状分类、多模态三维形状检索(文本 / 图像 / 点云输入)、三维点云的字幕生成和基于三维点云的图像生成等跨模态任务。


三维形状零样本分类



OpenShape 支持零样本三维形状分类。无需额外训练或微调,OpenShape 在常用的 ModelNet40 基准(包含 40 个常见类别)上达到了 85.3% 的 top1 准确率,超过现有零样本方法 24 个百分点,并首次实现与部分全监督方法相当的性能。


OpenShape 在 ModelNet40 上的 top3 和 top5 准确率则分别达到了 96.5% 和 98.0%。



与现有方法主要局限于少数常见物体类别不同,OpenShape 能够对广泛的开放世界类别进行分类。在 Objaverse-LVIS 基准上(包含 1156 个物体类别),OpenShape 实现了 46.8% 的 top1 准确率,远超现有零样本方法最高只有 6.2% 的准确率。这些结果表明 OpenShape 具备有效识别开放世界三维形状的能力。


多模态三维形状检索


通过 OpenShape 的多模态表示,用户可以对图像、文本或点云输入进行三维形状检索。研究通过计算输入表示和三维形状表示之间的余弦相似度并查找 kNN,来从集成数据集中检索三维形状。


图片输入的三维形状检索


上图展示了输入图片和两个检索到的三维形状。


文本输入的三维形状检索


上图展示了输入文本和检索到的三维形状。OpenShape 学到了广泛的视觉和语义概念,从而支持细粒度的子类别(前两行)和属性控制(后两行,如颜色,形状,风格及其组合)。


三维点云输入的三维形状检索


上图展示了输入的三维点云和两个检索到的三维形状。


双输入的三维形状检索


上图将两个三维形状作为输入,并使用它们的 OpenShape 表示来检索同时最接近两个输入的三维形状。检索到的形状巧妙地结合了来自两个输入形状的语义和几何元素。


基于三维形状的文本和图像生成


由于 OpenShape 的三维形状表示与 CLIP 的图像和文本表示空间进行了对齐,因此它们可以与很多基于 CLIP 的衍生模型进行结合,从而支持各种跨模态应用。


三维点云的字幕生成


通过与现成的图像字幕模型(ClipCap)结合,OpenShape 实现了三维点云的字幕生成。


基于三维点云的图像生成


通过与现成的文本到图像的扩散模型(Stable unCLIP)结合,OpenShape 实现了基于三维点云的图像生成(支持可选的文本提示)。


更多的基于三维点云的图像生成示例


训练细节


基于对比学习的多模态表示对齐:OpenShape 训练了一个三维原生编码器,它将三维点云作为输入,来提取三维形状的表示。继之前的工作,研究利用多模态对比学习来与 CLIP 的图像和文本表示空间进行对齐。与之前的工作不同,OpenShape 旨在学习更通用和可扩展的联合表示空间。研究的重点主要在于扩大三维表示学习的规模和应对相应的挑战,从而真正实现开放世界下的三维形状理解。



集成多个三维形状数据集:由于训练数据的规模和多样性在学习大规模三维形状表示中起着至关重要的作用,因此研究集成了四个当前最大的公开三维数据集进行训练。如下图所示,研究的训练数据包含了 87.6 万个训练形状。在这四个数据集中,ShapeNetCore、3D-FUTURE 和 ABO 包含经过人工验证的高质量三维形状,但仅涵盖有限数量的形状和数十个类别。Objaverse 数据集是最近发布的三维数据集,包含显著更多的三维形状并涵盖更多样的物体类别。然而 Objaverse 中的形状主要由网络用户上传,未经人工验证,因此质量参差不齐,分布极不平衡,需要进一步处理。



文本过滤和丰富:研究发现仅在三维形状和二维图像之间应用对比学习不足以推动三维形状和文本空间的对齐,即使在对大规模数据集进行训练时也是如此。研究推测这是由于 CLIP 的语言和图像表示空间中固有的领域差距引起的。因此,研究需要显式地将三维形状与文本进行对齐。然而来自原始三维数据集的文本标注通常面临着缺失、错误、或内容粗略单一等问题。为此,本文提出了三种策略来对文本进行过滤和丰富,从而提高文本标注的质量:使用 GPT-4 对文本进行过滤、对三维模型的二维渲染图进行字幕生成和图像检索。


研究提出了三种策略来自动过滤和丰富原始数据集中的嘈杂文本。


文本过滤和丰富示例


在每个示例中,左侧部分展示了缩略图、原始形状名称和 GPT-4 的过滤结果。右上部分展示来来自两个字幕模型的图像字幕,而右下部分显示检索到的图像及其相应的文本。


扩大三维骨干网络。由于先前关于三维点云学习的工作主要针对像 ShapeNet 这样的小规模三维数据集, 这些骨干网络可能不能直接适用于我们的大规模的三维训练,需要相应地扩大骨干网络的规模。研究发现在不同大小的数据集上进行训练,不同的三维骨干网络表现出不同的行为和可扩展性。其中基于 Transformer 的 PointBERT 和基于三维卷积的 SparseConv 表现出更强大的性能和可扩展性,因而选择他们作为三维骨干网络。


在集成数据集上扩展三维骨干模型的大小时,不同骨干网络的性能和可扩展性比较。


困难负例挖掘:研究的集成数据集表现出高度的类别不平衡。一些常见的类别,比如建筑,可能占据了数万个形状,而许多其他类别,比如海象和钱包,只有几十个甚至更少的形状,代表性不足。因此,当随机构建批次进行对比学习时,来自两个容易混淆的类别(例如苹果和樱桃)的形状不太可能出现在同一批次中被对比。为此,本文提出了一种离线的困难负例挖掘策略,以提高训练效率和性能。


欢迎到 HuggingFace 上尝试交互 demo。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
8 大分类、80+ ChatGPT 插件一网打尽,最全 ChatGPT 插件清单来了国风仙侠开放世界首曝,《仙剑世界》交了一份怎么样的答卷?收藏:分布式存储分类、优势及应用领域比Diffusion更快!OpenAI新图像生成模型开源了!清华校友宋飏一作Stability AI 发布开源版 DreamStudio,可使用最新 Stable Diffusion XL 图像生成器刘燕暑期小班直播!将故事类、科普类、写作类、加州语文类一网打尽中国团队推出脑电图图像生成模型DreamDiffusion5040 血壮山河之武汉会战 鏖战幕府山 9Stable Diffusion团队放大招!新绘画模型直出AI海报,实现像素级图像生成ICCV 2023 | PointCLIP V2:结合CLIP和GPT的3D开放世界分类、分割网络8大分类、80+ChatGPT插件一网打尽,最全ChatGPT插件清单来了后容器时代(2023):行业分类、特性、发展、规模及竞争格局不泡豆、免过滤、自清洗,豆浆/米糊/果汁/咖啡样样行!这豆浆机定要拥有!炫到爆炸!HuggingGPT在线演示惊艳亮相,网友亲测图像生成绝了图像生成过程中遭「截胡」:稳定扩散的失败案例受四大因素影响图像生成终结扩散模型,OpenAI「一致性模型」加冕!GAN的速度一步生图,高达18FPS暑期小班直播!将故事类、科普类、新闻类、写作类、加州语文类一网打尽禁套套(TT,Tiktok)算个啥?被禁的APP大把在路上华人的思维,某些科学家发明家的思维Midjourney 5.1来了!图像生成更丝滑,网友已经玩嗨了...PubMed检索加上CNKI,搞定文献阅读与检索过程中的99%的难题漫游大华府(10)华盛顿故居乌贼变色的图像生成术:没有一次伪装是相同的ChatGPT上线新必应搜索;PS更新AI图像生成工具;Anthropic募资近4.5亿美元丨AIGC大事日报AI图像生成技术服务商「Tiamat」再获A+轮投资,上线网页版产品加速工具化|早起看早期装饰石材分类、加工工艺解析及成本分析【装修干货】CCTV推荐「宝石不粘锅」,煎蒸炒煮样样行!自带微压 ,炖菜快1倍...燃气费省一半AIGC一键生成“开放世界”360全景概念图,游戏美术看了直呼画不了?用GPT-4实现可控文本图像生成,UC伯克利&微软提出新框架Control-GPT《美的让人醉》&《我把吉祥送给你》港中文深圳推出检索新范式:模块化检索,可解释性及泛化性更强推理效率比ControlNet高20+倍!谷歌发布MediaPipe Diffusion插件,「移动端」可用的图像生成控制模型港中文李教授:基于遥感图像的地理空间图像分类识别|收获一作论文与导师推荐信!My.Games首席关卡策划:如何创造具有吸引力的开放世界?与Midjourney开战!Stable Diffusion XL 0.9重磅发布,35亿+66亿双模型,AI图像生成飞跃式进步
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。