Redian新闻
>
港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

公众号新闻
允中 发自 凹非寺
量子位 | 公众号 QbitAI

当前,多模态大模型 (MLLM)在多项视觉任务上展现出了强大的认知理解能力。

然而大部分多模态大模型局限于单向的图像理解,难以将理解的内容映射回图像上。

比如,模型能轻易说出图中有哪些物体,但无法将物体在图中准确标识出来。

定位能力的缺失直接限制了多模态大模型在图像编辑,自动驾驶,机器人控制等下游领域的应用。

针对这一问题,港大和字节跳动商业化团队的研究人员提出了一种新范式Groma——

通过区域性图像编码来提升多模态大模型的感知定位能力。

在融入定位后,Groma可以将文本内容和图像区域直接关联起来,从而显著提升对话的交互性和指向性。


核心思路

如何赋予多模态大模型定位物体的能力,乃至于将文字内容和图像区域关联起来,做到“言之有物”,是当前一大研究热点。

常见的做法是微调大语言模型使其直接输出物体坐标。然而这种方法却有着诸多限制:

1、在文本上预训练的大语言模型本身不具备空间理解能力,仅依靠少量数据微调很难精准定位物体。

2、定位任务对输入图像的分辨率有较高要求,但提高分辨率会显著增加多模态大模型的计算量。

3、大语言模型的输出形式不适合处理精细的定位任务,比如分割。

基于这些考虑,Groma提出将定位转移到多模态大模型的vision tokenizer中,由vision tokenizer发现并定位潜在的物体,再交给大语言模型识别。

同时,这样的设计也充分利用了vision tokenizer本身的空间理解能力,而无需外接专家模型(比如SAM)来辅助定位,从而避免了外接模型的冗余。

具体而言,Groma在全局图像编码的基础上,引入了区域编码来实现定位功能——如下图所示,Groma先利用Region Proposer定位潜在的物体,再通过Region Encoder将定位到的区域逐一编码成region token。

而大语言模型则可以根据region token的语意判断其对应的区域,并通过在输出中插入region token来达成类似超链接的效果,实现visually grounded conversation。

同样地,用户指定的区域也可以通过Region Encoder编码成相应的region token,并插入到用户指令中,从而让多模态模型能关注到指定的区域并产生指向性的回答。

为了提升定位的鲁棒性和准确性,Groma采用了超过8M的数据(包括SA1B)来预训练Region Proposer。因此其产生的proposal不仅包括常见的物体,也涵盖了物体的组成部分以及更广阔的背景等要素。

此外,得益于分离式的设计,Groma可以采用高分辨率特征图用于Region Proposer/Encoder的输入,并采用低分辨率的特征图用于大模型输入,从而在降低计算量的同时又不损失定位性能。

实验结果

Groma在传统的Grounding Benchmarks上表现出了超越MiniGPT-v2和Qwen-VL的性能。

同时,Groma在多模态大模型通用的VQA Benchmark (LLaVA-COCO)验证了其对话和推理能力。

在可视化的对比中,Groma也表现出了更高的recall和更少的幻觉。

此外,Groma还支持融合对话能力和定位能力的referential dialogue以及grounded chat。

得益于大语言模型强大的认知推理能力,多模态大模型在视觉理解任务上表现突出。

然而一些传统的视觉任务,如检测分割、深度估计等,更多依赖视觉感知能力,这恰恰是大语言模型所缺乏的。

Groma在这个问题上提供了一种新的解决思路,即把感知和认知解耦开来,由vision tokenizer负责感知,大语言模型负责认知。

这种先感知后认知的形式除了更符合人类的视觉过程,也避免了重新训练大语言模型的计算开销。

5月15日,字节跳动刚刚公布了自研的豆包大模型,提供多模态能力,下游支持豆包APP、扣子、即梦等50+业务,并通过火山引擎开放给企业客户,助力企业提升效率、加速智能化创新。目前,豆包APP已成为中国市场用户量最大的AIGC应用。字节跳动正持续加大对顶尖人才和前沿技术的投入力度,参与行业顶尖的技术挑战和攻坚。

项目网站:
https://groma-mllm.github.io

论文链接:
https://arxiv.org/abs/2404.13013

开源代码:
https://github.com/FoundationVision/Groma

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
步诸诗友韵也填卜算子文末送书 | 中山大学HCP实验室专著《多模态大模型》重磅发布荐书丨中山大学 HCP 实验室专著《多模态大模型》重磅发布美国文化探究,我喜欢的瞬间:ICML 2024 | 川大提出外部引导的深度聚类新范式,大幅提升CLIP图像聚类性能赋予机器人思考能力!北大提出自纠正多模态大模型,赋能端到端机器人操作8B文字多模态大模型指标逼近GPT4V,字节、华师、华科联合提出TextSquare上海AI Lab开源首个可替代GPT-4V的多模态大模型颜水成挂帅,奠定「通用视觉多模态大模型」终极形态!一统理解/生成/分割/编辑五光十色的多模态大模型:浅探视觉-语言大模型的关键模块设计轻松拿捏4K高清图像理解!这个多模态大模型自动分析网页海报内容,打工人简直不要太方便个人感慨之125 坏分子AI早知道|元象开源首个多模态大模型XVERSE-V;信通院发布国内首个汽车大模型标准上交&阿里:掀开多模态大模型的头盖骨,解密黑盒模型推理过程北大字节开辟图像生成新范式!超越Sora核心组件DiT,不再预测下一个token国产多模态大模型狂飙!颜水成挂帅开源Vitron,破解图像/视频模型割裂问题专治大模型说胡话,精确率100%!华科等提出首个「故障token」检测/分类方法雨水HuggingFace烧钱做了一大批实验,揭示多模态大模型哪些trick真正有效​第一个基于Llama 3的多模态大模型!Bunny-Llama-3-8B-V上线!港大和字节提出Groma:多模态大模型新范式!模拟人类先感知后认知,精确定位图中物体!元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入CVPR 2024 | 南洋理工提出动态人体渲染新范式,高度还原跳舞时飞扬的裙摆只要千元级,人人可用百亿级多模态大模型!国产「AI模盒」秒级训练推理国产多模态大模型开源!无条件免费商用,性能超Claude 3 Sonnet剑桥大学:基于语音的大模型攻击,轻松“操纵”多模态大模型北京内推 |​ 商汤研究院基础多模态大模型组招聘多模态方向算法实习生字节、华科发布多语种视觉文本理解新基准,多模态大模型还有很长的路要走GPT-4o仅排第二!北大港大等6所高校联手,发布权威多模态大模型榜单!谈谈对哈佛斯坦福学生的印象ICML 2024 | 量化大模型退化严重?ETH北航字节推出LoRA新范式李未可科技古鉴:发布自研多模态大模型WAKE-AI,三大优化让AI眼镜交互体验升级 丨GenAICon 2024量化大模型退化严重?ETH北航字节推出LoRA新范式 | ICML 2024扩散模型也能推荐短视频!港大腾讯提出新范式DiffMM万字长文总结多模态大模型最新进展(Modality Bridging篇)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。