Redian新闻
>
理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度

公众号新闻
机器之心专栏

机器之心编辑部


在人类的日常交流中,经常会关注场景中不同的区域或物体,人们可以通过说话并指向这些区域来进行高效的信息交换。这种交互模式被称为参考对话(Referential Dialogue)


如果 MLLM 擅长这项技能,它将带来许多令人兴奋的应用。例如,将其应用到 Apple Vision Pro 等混合现实 (XR) 眼镜中,用户可以使用视线注视指示任何内容与 AI 对话。同时 AI 也可以通过高亮等形式来指向某些区域,实现与用户的高效交流。


本文提出的 Shikra 模型,就赋予了 MLLM 这样的参考对话能力,既可以理解位置输入,也可以产生位置输出



  • 论文地址:http://arxiv.org/abs/2306.15195

  • 代码地址:https://github.com/shikras/shikra

核心亮点


Shikra 能够理解用户输入的 point/bounding box,并支持 point/bounding box 的输出,可以和人类无缝地进行参考对话


Shikra 设计简单直接,采用非拼接式设计,不需要额外的位置编码器、前 / 后目标检测器或外部插件模块,甚至不需要额外的词汇表。



如上图所示,Shikra 能够精确理解用户输入的定位区域,并能在输出中引用与输入时不同的区域进行交流,像人类一样通过对话和定位进行高效交流。



如上图所示,Shikra 不仅具备 LLM 所有的基本常识,还能够基于位置信息做出推理。



如上图所示,Shikra 可以对图片中正在发生的事情产生详细的描述,并为参考的物体生成准确的定位。



尽管 Shikra 没有在 OCR 数据集上专门训练,但也具有基本的 OCR 能力。


更多例子




其他传统任务








方法


模型架构采用 CLIP ViT-L/14 作为视觉主干,Vicuna-7/13B 作为基语言模型,使用一层线性映射连接 CLIP 和 Vicuna 的特征空间。


Shikra 直接使用自然语言中的数字来表示物体位置,使用 [xmin, ymin, xmax, ymax] 表示边界框,使用 [xcenter, ycenter] 表示区域中心点,区域的 xy 坐标根据图像大小进行归一化每个数字默认保留 3 位小数。这些坐标可以出现在模型的输入和输出序列中的任何位置。记录坐标的方括号也自然地出现在句子中。


实验结果


Shikra 在传统 REC、VQA、Caption 任务上都能取得优良表现。同时在 PointQA-Twice、Point-V7W 等需要理解位置输入的 VQA 任务上取得了 SOTA 结果。






本文使用 POPE benchmark 评估了 Shikra 产生幻觉的程度。Shikra 得到了和 InstrcutBLIP 相当的结果,并远超近期其他 MLLM。



思想链(CoT),旨在通过在最终答案前添加推理过程以帮助 LLM 回答复杂的 QA 问题。这一技术已被广泛应用到自然语言处理的各种任务中。然而如何在多模态场景下应用 CoT 则尚待研究。尤其因为目前的 MLLM 还存在严重的幻视问题,CoT 经常会产生幻觉,影响最终答案的正确性。通过在合成数据集 CLEVR 上的实验,研究发现,使用带有位置信息的 CoT 时,可以有效减少模型幻觉提高模型性能。



结论


本文介绍了一种名为 Shikra 的简单且统一的模型,以自然语言的方式理解并输出空间坐标,为 MLLM 增加了类似于人类的参考对话能力,且无需引入额外的词汇表、位置编码器或外部插件。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
在线可玩:阿里开源多模态大模型mPLUG-Owl,电影问答、梗图理解、多轮聊天……更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」从感知到理解-融合语言模型的多模态大模型研究多模态大模型进展及应用 | 8月10日TF116报名关于医学多模态大模型,你需要来学习这些最新研究达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力能「说」会「画」, VisCPM:SOTA 开源中文多模态大模型【七绝】 园中株 (五歌)中文版开源Llama 2同时有了语言、多模态大模型,完全可商用训练开销骤减,10%成本定制专属类GPT-4多模态大模型独家 | 多模态大模型初创企业「智子引擎」,近日完成千万元天使轮融资多模态大模型的幻觉问题与评估清华系面壁智能开源中文多模态大模型VisCPM :支持对话文图双向生成,吟诗作画能力惊艳追赶GPT-4的多模态大模型对比分析独家 | 多模态大模型初创企业“智子引擎”,近日完成千万元天使轮融资为多模态LLM指明方向,邱锡鹏团队提出具有内生跨模态能力的SpeechGPT专访生数科技唐家渝:清华系团队拿到上亿融资,用Transformer来做多模态大模型多模态大模型的下一站在哪里?开源多模态大模型哪家强?TOP12榜单来了,GitHub揽获2.2k+星哥巳不再是当年的哥,姐已不再是当年的姐训练成本不到1000元,直降90%!NUS、清华发布VPGTrans:轻松定制类GPT-4多模态大模型多模态大语言模型综述来啦!一文带你理清多模态关键技术中科院发布多模态 ChatGPT,图片、语言、视频都可以 Chat ?中文多模态大模型力作LaVIN-lite:单张消费级显卡微调多模态大模型汤姆●琼斯—一个弃儿的个人史01.04B(重译)专访生数科技唐家渝:清华系团队拿到近亿融资,用Transformer来做多模态大模型VPGTrans: 10%的成本定制你自己的类GPT-4多模态大模型BLIP-2、InstructBLIP稳居前三!十二大模型,十六份榜单,全面测评「多模态大语言模型」多模态大一统、AI智能体将如何引领未来?阿里妈妈与人大高瓴学者探讨大模型趋势澳洲人全世界最蠢...吗?融资千万,结盟软通动力,人大多模态大模型元乘象正在圈地大B市场|甲子光年阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl多模态大模型向前,机器人领域的新机遇在哪里?《山恋》&《浮生记》独家 | 哈工深新跑出一家多模态大模型公司,聂礼强、张民等 AI 大牛加盟
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。