Redian新闻
>
最强"全开源"多模态基础感知大模型APE发布!在160种测试集上取得强力结果!

最强"全开源"多模态基础感知大模型APE发布!在160种测试集上取得强力结果!

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【多模态学习】微信交流群

扫码加入CVer知识星球可以最快学习到最新顶会顶刊上的论文ideaCV从入门到精通资料,以及最前沿项目和应用!发论文,强烈推荐!

在CVer微信公众号后台回复:APE,即可下载论文pdf和代码链接!快学起来!


论文地址:https://arxiv.org/pdf/2312.02153

开源:https://github.com/shenyunhang/APE

Demo链接:

https://huggingface.co/spaces/shenyunhang/APE_demo

简介:训练和推理代码以及模型权重全部开源!一次性检测&分割任意多类别或短语!一个模型一套参数在160种测试集上取得当前SOTA或极具竞争性的结果!   

在线Demo  

https://huggingface.co/spaces/shenyunhang/APE_demo

   

介绍

近期视觉基础模型(Vision Foundation Models)方向一直在探索建立一个通用的视觉感知系统,已有的方法可以分为三类:

(1)第一类采用自监督的训练方式,例如DINO和CLIP等,这类方法在做下游感知类任务的时候需要再训练单独的Head或者Adapter;

(2)第二类方法是开集检测,对齐图像的局部区域和文本表达,例如GLIP、UNINEXT和GroundingDINO等,但这类方法在每次推理时只能检测非常有限数量的类别(例如lvis的1023类单词要拆分成30多次推理)或者单个句子,检测类别或者句子长度的提升会给计算量和性能带来巨大的挑战;

(3)第三类方法是开集语义分割,例如SAM、Xdecoder和SEEM等,但这类方法在加上语义信息时面临着前景可数物体和背景不可数物体的粒度差异问题,导致性能下降,这类方法往往需要设计特定的网络结构或者训练策略来缓解前背景冲突;

针对以上问题,来自厦门大学等机构的研究人员提出一种新的模型APE,其框架如下所示:

   

方法  

Independent Prompt:

给定多个目标类别,例如Girl和Sky等,以往的方法通常直接联结这些类别名组成一个单独的Prompt:“Girl. Sky. …”,这种构造方式是期望可以建模不同类别名之间的相互关系。但我们发现这种类别名之间的相互关系不是必须的,每种类别名独立建模就可以学习不同的实例。为此,我们对每种类别名或者描述的短语都进行独立建模:[“Girl”, “Sky”, “Little child with hat on branch”, “The big chinchilla”, . . . ],并获得其独立的prompt embedding。

Sentence-Level Embeddings:

为了减少计算复杂度和内存消耗,我们进一步将Word-Level Embeddings压缩成Sentence-Level Embeddings,也就是将一句话中所有Word Embeddings求平均,我们实验中发现这种Sentence-Level Embeddings足够表达语义信息。

Gated Cross-modality Interaction:

GLIP等方法直接融合文本和视觉特征,在类别名很多的情况下融合的代价逐步提升。我们则针对不同的Prompt类型来进行特征融合,对于纯类别名(Vocabulary Prompt)的文本特征,我们采用一种“zero”文本token来作为它们的替代,过往经验表明直接将Vocabulary Prompt和视觉特征融合容易导致过拟合现象,使得在新类别上的表现欠佳。语言描述(Sentence Prompt)的文本特征则被融合到视觉特征中以实现语义级的理解。

Region-sentence Alignment:   

我们直接通过矩阵乘法计算Object Embeddings和Prompt Embeddings之间的相似度,从而实现一次性检测&分割万物。值得注意的是我们维持了一个Embedding Bank用于构建负样本。

Thing-stuff-equalizing Alignment:

分割任务的前景和背景的粒度是不同的,比如背景天空即使由好几块组成,但仍然被认为是同一个标签,而前景比如人则是单独的标签。这种粒度差异会给模型训练带来挑战,为此我们提出统一前景和背景的粒度,对于不同块的背景我们将其视为独立的标签,如上图中的“天空”。这使得模型可以采用统一的架构训练前景和背景数据,也可以方便地融入SA-1B这类大规模的Class-Agnostic数据。

数据配比:

我们使用了10中常见的开源数据集进行训练,包括通用检测分割数据(COCO、Objects365),长尾检测分割数据(LVIS),联邦标注的数据(OpenImages),指向性检测分割数据(VG、RefCOCO/+/g、GQA、Phrascut、Flickr30k),不带语义的分割数据(SA-1B)。我们提出一些列原则精心设计数据配比和损失权重。

实验效果  

我们进行了大规模的实验以验证我们方法的有效性,APE-ABCD对应用不同的训练数据。可以看到我们的方法在160种测试集上普遍取得了当前SOTA或具有竞争性的结果,值得注意的是我们只采用了一个模型架构和一套参数,没有针对下游任务进行微调。    

论文一共训练了四组大模型:

APE (A):基础版,基于DETA构建,并只在通常的检测和分割数据集上训练,包括COCO, LVIS, Objects365, OpenImages, and Visual Genome。

APE (B):APE (A)的基础上加入Visual Genome和COCO的指向性检测和分割数据进行训练。

APE (C):进一步加入大规模SA-1B数据集进行训练。

APE (D):除了上面的数据,进一步加入GQA, PhraseCut, Flickr30k数据集,并且修改了部分训练策略。

性能比较总览

整体上看,APE方法在各个检测、分割和指向性检测数据集上都比之前的方法好,特别是在D3数据集上。   

开集检测的效果比较

在检测上,主要比较了LVIS、OpenImages,Objects365和COCO这四个常见数据集。APE的效果优势非常明显。不少方法都在Objects365上预训练过,例如GLIP, OWL, and UNINEXT,但是他们在这些训练过的数据集上效果也并不是很好。另外实验还比较了RoboFlow100和ODinW评测基准。RoboFlow100和ODinW分别由100和35个独立的小数据集组成,专门用于开集评测。APE在这两个数据集上取得了新SotA。

开集分割的效果比较

在开集分割评测基准上,当类别数量较多时候,例如PC-459, ADE20K和SegInW分别有 459, 150和85个类,APE的效果比其他方法好不少。其中SegInW由25个差异很大的小数据集组成,专门用于开集分割评测。而在类别数量较少的数据集上,APE的效果相对差些。

视觉定位的效果比较

在视觉定位D3评测基准上,APE取得的效果提升最明显。特别在inter-scenario的设定下,大部分方法的指标都低于6,而APE可以取得21.0。因为在inter-scenario设定下,每张图都要用422个句子去查询,之前模型总是会每句话预测一个物体,因此效果不理想,而APE会拒绝不相关的查询。在intra-scenario设定下,APE在各项指标上也取得了15+个点的提升。

论文地址:https://arxiv.org/pdf/2312.02153
开源链接:https://github.com/shenyunhang/APE
Demo链接:
https://huggingface.co/spaces/shenyunhang/APE_demo
在CVer微信公众号后台回复:APE,即可下载论文pdf和代码链接!快学起来!
CVPR / ICCV 2023论文和代码下载
后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

多模态学习交流群成立


扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-多模态学习 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如多模态学习+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源姚让的疫情时代(5)腾讯发表多模态大模型最新综述,从26个主流大模型看多模态效果提升关键方法北京获准的大模型占全国近半;OpenAI CEO筹建AI芯片公司;零一万物多模态语言模型上线丨AIGC大事日报杭州/北京内推 | 阿里达摩院多模态团队招聘多模态方向全职研究员/实习生​上海楼市重磅,公积金也"认房不认贷"!"首套房""二套房"认定优化北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务AI早知道|科大讯飞星火认知大模型 V3.5发布;Midjourney V6动漫微调模型上线NeurIPS 2023 | 北大&华为提出:多模态基础大模型的高效微调世界顶尖多模态大模型开源!又是零一万物,又是李开复零一万物Yi-VL多模态大模型开源,MMMU、CMMMU两大权威榜单领先Google发布Gemini,暗示GPT-4不是「原生」多模态大量假钞已流入澳洲市场! 可通过多种测试! 官方警告: 用了或坐牢12年"想到了同胞"美国大姐故意开车撞"犹太人学校"得知结果后"糗大了"。巴以冲突何时了李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型北京内推 | 阿里淘天集团招聘大模型/多模态大模型算法实习生最强开源多模态生成模型MM-Interleaved:首创特征同步器UC伯克利等发布多模态基础模型CoDi-2;谷歌DeepMind利用AI工具发现200万种新材料丨AIGC日报推翻(狭义)相对论意味着什么?挑战GPT-4V,浙大校友推出开源版多模态大模型,获GitHub 6k+星标UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源三七等于二十一吗GPT-4V只能排第二!华科大等发布多模态大模型新基准:五大任务14个模型全面测评AI早知道|ChatGPT模型大更新;阿里云发布多模态大模型;百度推多模态模型UNIMO-G全球首个开源多模态医疗基础模型:人工打分平均超越GPT-4V、支持2D/3D放射影像媒体基础:打开多模态大模型的新思路教育大纲"蜗牛也是牛"!千亿公募"黄金搭档":用"蜗牛态度"做固收,挖掘"善良"的金融逻辑最强开源多模态生成模型MM-Interleaved:首创特征同步器,刷新多项SOTA别让大模型被基准评估坑了!测试集乱入预训练,分数虚高,模型变傻年轻人的第一个多模态大模型:1080Ti轻松运行,已开源在线可玩震惊!!!谷歌发布最强多模态大模型Gemini​AAAI 2024 | 首个多模态实体集扩展数据集MESED和多模态模型MultiExpanNeurIPS 2023 | 多模态基础大模型的高效微调
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。