Redian新闻
>
首创pix2emb范式!NUS清华联合发布NExT-Chat:对话/检测/分割全能多模态大模型

首创pix2emb范式!NUS清华联合发布NExT-Chat:对话/检测/分割全能多模态大模型

公众号新闻



  新智元报道  

编辑:LRS 好困
【新智元导读】研究人员提出了一个全新的位置建模方式pix2emb,可以在多模态对话模型中指定位置输入来回答问题。


随着ChatGPT的爆红,多模态领域也涌现出一大批可以处理多种模态输入的对话模型,如LLaVA, BLIP-2等等。


为了进一步扩展多模态大模型的区域理解能力,近期新加坡国立大学NExT++实验室和清华大学的研究人员联手打造了一个可以同时进行对话和检测、分割的多模态模型NExT-Chat。


作者:张傲,姚远,吉炜,刘知远,Chua Tat-Seng

多模态对话模型Demo:https://next-chatv.github.io/

论文:https://arxiv.org/pdf/2311.04498.pdf

代码:https://github.com/NExT-ChatV/NExT-Chat



文章探索了如何在多模态模型中引入位置输入和输出的能力。


其中,位置输入能力指的是根据指定的区域回答问题,比如图1中的左图。


而位置输出能力指的是定位对话中提及的物体,如图1右图的小熊定位。


图1:位置输入和输出示例


现有的方法主要通过pix2seq的方式进行LLM相关的位置建模。


比如Kosmos-2将图像划分成32x32的区块,用每个区块的id来代表点的坐标。Shikra将物体框的坐标转化为纯文本的形式从而使得LLM可以理解坐标。


但使用pix2seq方法的模型输出主要局限在框和点这样的简单格式,而很难泛化到其他更密集的位置表示格式,比如segmentation mask。


为了解决这个问题,本文提出了一种全新的基于embedding的位置建模方式pix2emb。


pix2emb


不同于pix2seq,所有的位置信息都通过对应的encoder和decoder进行编码和解码,而不是借助LLM本身的文字预测头。


图2:pix2emb方法简单示例


如图2所示,位置输入被对应的encoder编码为位置embedding,而输出的位置embedding则通过Box Decoder和Mask Decoder转化为框和掩模。


这样做带来了两个好处


1. 模型的输出格式可以非常方便扩展到更多复杂形式,比如segmentation mask


2. 模型可以非常容易的定位任务中已有的实践方式,比如本文的detection loss采用L1 Loss和GIoU Loss (pix2seq则只能使用文本生成loss),本文的mask decoder借助了已有的SAM来做初始化。


NExT-Chat模型


通过借助pix2emb方法,作者训练了一个全新的NExT-Chat模型。


图3:NExT-Chat模型架构


NExT-Chat整体采用了LLaVA架构,即通过Image Encoder来编码图像信息并输入LLM进行理解,并在此基础上添加了对应的Box Encoder和两种位置输出的Decoder。


然而,在正常情况下,LLM并不知道何时该使用语言的LM head还是位置解码器。


为了解决这一问题,NExT-Chat额外引入一个全新的token类型<trigger>来标识位置信息。


如果模型输出了<trigger>,则<trigger>的embedding会被送入对应的位置解码器进行解码而不是语言解码器。


此外,为了维持输入阶段和输出阶段,位置信息的一致性。NExT-Chat额外引入了一个对齐约束:


图4:位置输入、输出约束


如图4所示,box和位置embedding会被分别通过解码器、编码器或解码器编码器组合,并要求前后不发生变化。


作者发现该方法可以极大程度促进位置输入能力的收敛。


NExT-Chat训练


模型训练主要包括3个阶段:


第一阶段:

该阶段目的在于训练模型基本的框输入输出基本能力。NExT-Chat采用Flickr-30K,RefCOCO,VisualGenome等包含框输入输出的数据集进行预训练。训练过程中,LLM参数会被全部训练。


第二阶段:

该阶段目的在于调整LLM的指令遵循能力。通过一些Shikra-RD,LLaVA-instruct之类的指令微调数据使得模型可以更好的响应人类的要求,输出更人性化的结果。


第三阶段:

该阶段目的在于赋予NExT-Chat模型分割能力。通过以上两阶段训练,模型已经有了很好的位置建模能力。作者进一步将这种能力扩展到mask输出上。实验发现,通过使用极少量的mask标注数据和训练时间(大约3小时),NExT-Chat可以快速的拥有良好的分割能力。


这样的训练流程的好处在于:检测框数据丰富且训练开销更小。


NExT-Chat通过在充沛的检测框数据训练基本的位置建模能力,之后可以快速的扩展到难度更大且标注更稀缺的分割任务上。


实验结果


在实验部分,NExT-Chat展示了多个任务数据集上的数值结果和多个任务场景下的对话示例。


RES任务

表1:RES任务上NExT-Chat结果


作者首先展示了NExT-Chat在RES任务上的实验结果。


虽然仅仅用了极少量的分割数据,NExT-Chat却展现出了良好的指代分割能力,甚至打败了一系列有监督模型(如MCN,VLT等)和用了5倍以上分割掩模标注的LISA方法。


REC任务


表2:REC任务上NExT-Chat结果

 

作者然后展示了NExT-Chat在REC任务上的实验结果。


如表2所示,相比于相当一系列的有监督方法(如UNITER),NExT-Chat都可以取得更优的效果。


一个有意思的发现是NExT-Chat比使用了类似框训练数据的Shikra效果要稍差一些。


作者猜测是由于pix2emb方法中LM loss和detection loss更难以平衡,以及Shikra更贴近现有的纯文本大模型的预训练形式。


图像幻觉任务


表3:POPE数据集上NExT-Chat结果


如表3所示,NExT-Chat可以在Random和Popular数据集上取得最优的准确率。


表4:RefCOCOg数据集上NExT-Chat结果


在区域描述任务上,NExT-Chat可以取得最优的CIDEr表现,且在该指标打败了4-shot情况下的Kosmos-2。


Demo展示


在文中,作者展示了多个相关demo:


图5:定位小熊


图6:复杂定位


图7:描述图片


图8:区域描述


图9:推理


总结


本文探索了一种不同于pix2seq形式的位置建模方式pixemb。


通过pix2emb方法,作者构建了NExT-Chat多模态大模型。


NExT-Chat大模型可以在对话过程中完成相关物体的检测、分割并对指定区域进行描述。


通过充足的实验评测,作者展示了NExT-Chat在多种场景下的优秀数值表现和展示效果。


参考资料:
https://github.com/NExT-ChatV/NExT-Chat



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
横扫13个视觉语言任务!哈工深发布多模态大模型「九天」,性能直升5%年轻人的第一个多模态大模型:1080Ti轻松运行,已开源在线可玩EMNLP 2023 | MMEdit——如何编辑多模态大语言模型?零一万物Yi-VL多模态大模型开源,MMMU、CMMMU两大权威榜单领先蕙莲 第六章学术成果 | EMNLP2023:MMEdit——如何编辑多模态大语言模型?无需额外知识或训练!中科大等提出OPERA:缓解多模态大模型幻觉问题的基于注意力惩罚与回退策略的解码方法谷歌发布Gemini,负责人:原生多模态大模型是AI「新品种」,正探索与机器人结合将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B站在上帝的一边CNN能搞多模态了!UniRepLKNet:大核CNN一统多种模态,图像/视频/点云/时序/音频均达SOTA水平!长篇小说《谷雨立夏间》27 新舞台​AAAI 2024 | 首个多模态实体集扩展数据集MESED和多模态模型MultiExpanAI早知道|ChatGPT模型大更新;阿里云发布多模态大模型;百度推多模态模型UNIMO-G理想汽车发布史上最大更新:多模态大模型首次上车,无人泊车即将推送世界顶尖多模态大模型开源!又是零一万物,又是李开复震惊!!!谷歌发布最强多模态大模型Gemini骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM葡萄牙的这类房子, 是否也面临着拆迁?骁龙888实时运行!美团&浙大等打造移动端多模态大模型MobileVLM清华大学与智谱 AI 联合推出 CogAgent:基于多模态大模型的 GUI Agent,具备视觉问答、视觉定位等能力低成本扩大输入分辨率!华科大提出Monkey:新的多模态大模型周末灌水:关于幸福(1)——幸福和时间精确指出特定事件发生时间!字节&复旦大学多模态大模型解读视频太香了思谋进博会首秀:发布全球首个工业多模态大模型,现场与松下、江森自控签署全面战略合作北京内推 | 阿里淘天集团招聘大模型/多模态大模型算法实习生文末送书 | 及时雨!《多模态大模型:技术原理与实战》首发上市腾讯发表多模态大模型最新综述,从26个主流大模型看多模态效果提升关键方法chat gpt 怎么上不去了? 彻底罢工了无痛缓解多模态大模型幻觉!基于注意力惩罚与回退机制的解码方法「OPERA」ICLR 2024|把图像视为外语,快手、北大多模态大模型媲美DALLE-3北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务GPT-4V只能排第二!华科大等发布多模态大模型新基准:五大任务14个模型全面测评鸿发超市「2000 万美元」买下82街前Walmart超市!开设第4家Hông Phát分店!大模型+自动驾驶=?普渡大学等最新《自动驾驶领域多模态大型语言模型》综述工业异常检测大模型来了!哈工大提出Myriad:利用视觉专家进行工业异常检测的大型多模态模型
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。