Redian新闻
>
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细

在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细

公众号新闻
机器之心报道
编辑:杜伟、小舟
全新视觉提示方法 SoM(Set-of-Mark),让 OpenAI 多模态大模型 GPT-4V 在视觉内容理解方面有了质的提升。

 

最近一段时间,我们见证了大型语言模型(LLM)的显著进步。特别是,生成式预训练 Transformer 或 GPT 的发布引领了业界和学术界的多项突破。自 GPT-4 发布以来,大型多模态模型 (LMM) 引起了研究界越来越多的兴趣,许多工作致力于构建多模态 GPT-4。 


近日,GPT-4V (ision) 由于出色的多模态感知和推理能力得到了大家格外的关注。然而,尽管 GPT-4V 具有前所未有的视觉语言理解能力,但其细粒度 visual grounding(输入是图片和对应的物体描述,输出是描述物体的 box)能力相对较弱,或者尚未发挥出来。


举例来说,当用户询问下图中「放置在右边笔记本电脑的左边是什么物体?」GPT-4V 给出了马克杯这个错误的答案。当用户接着询问,「想找一个靠窗的座位,我可以坐在哪里?」GPT-4V 同样回答不正确。



在意识到上述问题后,来自微软、香港科技大学等机构的研究者提出了一种新的视觉 prompt 方法 Set-of-Mark(SoM),来解决 GPT-4V 在细粒度视觉任务上的问题。



  • 论文地址:https://arxiv.org/pdf/2310.11441.pdf

  • 论文主页:https://som-gpt4v.github.io/


如图 1(右)所示,SoM 采用交互式分割模型(例如 SAM)将图像划分为不同粒度级别的区域,并在这些区域上添加一组标记(mark),例如字母数字、掩码(mask)、框(box)。使用添加标记的图像作为输入,以解决上述问题。


我们先来看下效果,左为 GPT-4V,右为 GPT-4V+SoM,很明显后者分类更细致、准确。



下图示例依然如此,GPT-4V+SoM 效果更明显。



此外,对于这项研究,有人问道:「SoM 是手动(人工输入)还是自动的?」



论文一作 Jianwei Yang 表示,SoM 是自动或半自动的。他们编译了很多自己构建自己的分割工具,比如 SEEM、Semantic-SAM 和 SAM,用来帮助用户自动为图像分割区域。同时用户也可以自己选择区域。



用于视觉的 SoM prompt


使用 SoM prompt GPT-4V 的独特优点是它可以产生文本之外的输出。由于每个标记都与掩码表征的图像区域特定关联,因此可以追溯文本输出中任何提到的标记的掩码。



生成成对文本和掩码的能力使 SoM 能够 prompt GPT-4V 来生成视觉关联的文本,更重要的是支持各种细粒度视觉任务,这对普通的 GPT-4V 模型来说是一个挑战。


通过简单的 prompt 工程,SoM 可以让 GPT-4V 广泛地用于多种视觉任务,例如:


  • 开放词汇图像分割:该研究要求 GPT-4V 详尽地给出所有标记区域的类别以及从预定池中选择的类别。

  • 参考分割:给定一个参考表达式,GPT-4V 的任务是从图像分区工具箱生成的候选区域中选择最匹配的区域。

  • 短语关联(Phrase Grounding):与参考分割略有不同,短语关联使用由多个名词短语组成的完整句子。该研究要求 GPT-4V 为所有标记的短语分配相应的区域。

  • 视频对象分割:以两个图像作为输入。第一个图像是查询图像,其中包含第二个图像中需要识别的一些对象。鉴于 GPT-4V 支持多个图像作为输入,因此 SoM 也可以应用于视频中跨帧的关联视觉对象。


实验及结果


研究者使用「分而治之」(divide-and-conquer)的策略来运行实验和评估。对于每个实例,他们使用新的聊天窗口,这样一来,评估期间就不会出现上下文泄露了。


具体来讲,研究者从每个数据集中选择了小规模的验证数据子集。对于数据集中的每个图像,他们在使用图像分割工具箱提取的区域上覆盖了一组标记。同时基于具体的任务,研究者利用不同的分割工具来提出区域。


下表 1 列出了每个任务的设置细节。



研究者将其方法与以下模型进行比较:


  • 预测坐标的 GPT-4V 基线模型

  • SOTA 专用模型

  • 开源 LMM


定量结果


详细的实验结果如下表 2 所示。



首先是图像分割任务。研究者将 GPT-4V + SoM 与 COCO Panoptic 分割数据集上的强大分割模型 MaskDINO、ADE20K Panoptic 分割数据集上的模型 OpenSeeD 进行了比较。


结果显示,GPT-4V + SoM 的零样本性能接近微调后的 MaskDINO,并大幅优于 OpenSeeD。GPT-4V 在 COCO 和 ADE20K 上的相似性能表现出其对广泛视觉和语义域任务的强大泛化能力。


然后是参考(referrring)任务,研究者评估了 RefCOCOg 数据集上的模型 RES 和 REC。他们使用 MaskDINO 来提出掩码,并在图像上覆盖上掩码和数字。同时使用 mIoU 作为评估指标,并与 SOTA 专用模型 PolyFormer 和 SEEM 进行比较。


结果显示,GPT-4V+SoM 击败了 Grounding DINO、Polyformer 等专用模型以及 Shikra、LLaVA-1.5、MiniGPT-v2 和 Ferret 等最近的开源 LMM。


接着是 Flickr30K 上的短语关联任务,研究者使用 Grounding DINO 为每个图像生成框建议。GPT-4V+SoM 实现了比 GLIPv2 和 Grounding DINO 更强的零样本性能。


最后研究者在 DAVIS2017 数据集上评估了视频分割任务。GPT-4V+SoM 实现了优于其他专用视觉模型的最佳追踪性能(78.8 J&F)。


消融研究


研究者探讨了标记类型如何影响 Flickr30k 数据集上短语关联任务的最终性能,并比较了两种类型的标记。第一种是数字和掩码,第二种是数字、掩码和框。


结果如下表 3 所示,添加额外的框可以显著提升性能。



此外研究者探究了当生成带有真值注释的标记时,GPT-4V 如何表现。他们选择在 RefCOCOg 验证集中用真值掩码替换预测到的分割掩码。这意味着 GPT-4V 只需要从注释短语区域选择一个即可。如预期一样,参考分割的性能可以得到进一步提升,尤其是当分割模型有一些缺失的区域。


结果如下表 4 所示,在 SoM 中使用真值掩码可以将 RefCOCOg 上的性能提升 14.5%(mIoU)。



更多技术细节和实验结果参阅原论文。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
只是换一根更扁更细的吸管,奶茶就会更好喝吗微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%普里戈津死于飞机坠落和防空导弹简介正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完ChatGPT发布一周年,微软股价涨超50%340条样本就能让GPT-4崩溃,输出有害内容高达95%?OpenAI的安全防护措施再次失效GPT-4太烧钱,微软想甩掉OpenAI?曝出Plan B:千块GPU专训「小模型」,开启必应内测AI搞定谷歌验证码,最新多模态大模型比GPT-4V空间理解更准确 | 苹果AI/ML团队230页长文,涵盖5大科学领域,微软团队使用GPT-4探索LLM对科学发现的影响5143 血壮山河之武汉会战 崩溃 3ChatGPT之父被开除,加入微软!ChatGPT员工要集体辞职?试过GPT-4V后,微软写了个166页的测评报告,业内人士:高级用户必读ChatGPT「看图说话」大变身!动嘴传图秒解答,幕后新模型GPT-4V亮相无题本周财经市场5件大事:美国将公布GDP 微软等四大巨头将公布财报微软用GPT-4V解读视频,看懂电影还能讲给盲人听,1小时不是问题OpenAI、谷歌微软等设立1000万美元AI安全基金微软发布 166 页 GPT-4V 测评报告,ChatGPT 的高阶用法都在这|Hunt Good 周报AI圈大变天,微软成最大赢家:OpenAI 联合创始人Sam Altman已确认加入微软GPT-4V数学推理如何?微软发布MathVista基准,评测报告长达112页品牌人说|凭感觉提炼的广告语,大多沦落为文字垃圾BK华女以为只是丢了手机,没想到更细思极恐的还在后头...碾压GPT-4,微软最强AutoGen爆火!多个智能体协作,编码速度飙升4倍,GitHub狂揽10k星《心儿跟着你飞啦》&《赐伤》ChatGPT最近被微软内部禁用!GPTs新bug:数据只要两句提示词就能套走中国旅游团复苏经济GPT-4V医学执照考试成绩超过大部分医学生,AI加入临床还有多远?东大华人博士让GPT-4用「心智理论」玩德扑!完胜传统算法,碾压人类新手微软写了份GPT-4V说明书:166页讲解又全又详细,提示词demo示例一应俱全 | 附下载《涉过愤怒的海》除了18禁,更细思极恐的是?清华、微软等淘汰提示工程师?LLM与进化算法结合,创造超强提示优化器对标马斯克的X,前IG创始人打造新闻「神器」,用生成AI整治「标题党」顶刊TMM 2023!中科院提出CLIP-VG:基于自步课程学习实现CLIP在视觉语言理解与定位任务上的无监督迁移研究刚刚开源!中科大提出利用GPT4-V构建大规模高质量图文数据集ShareGPT4V,助力模型霸榜多项多模态榜单!和谷歌搜索抢活,FRESHLLM「紧跟时事」,幻觉更少,信息更准
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。