Redian新闻
>
上海交大新框架解锁CLIP长文本能力,多模态生成细节拿捏,图像检索能力显著提升

上海交大新框架解锁CLIP长文本能力,多模态生成细节拿捏,图像检索能力显著提升

公众号新闻
白交 发自 凹非寺
量子位 | 公众号 QbitAI

CLIP长文本能力被解锁,图像检索任务表现显著提升!

一些关键细节也能被捕捉到。上海交大联合上海AI实验室提出新框架Long-CLIP

棕色文本为区分两张图的关键细节

Long-CLIP在保持CLIP原始特征空间的基础上,在图像生成等下游任务中即插即用,实现长文本细粒度图像生成——

长文本-图像检索提升20%,短文本-图像检索提升6%。

解锁CLIP长文本能力

CLIP对齐了视觉与文本模态,拥有强大的zero-shot泛化能力。因此,CLIP被广泛应用在各种多模态任务中,如图像分类、文本图像检索、图像生成等。

但CLIP的一大弊病是在于长文本能力的缺失

首先,由于采用了绝对位置编码,CLIP的文本输入长度被限制在了77个token。不仅如此,实验发现CLIP真正的有效长度甚至不足20个token,远远不足以表征细粒度信息。

文本端的长文本缺失也限制了视觉端的能力。由于仅包含短文本,CLIP的视觉编码器也只会提取一张图片中最主要的成分,而忽略了各种细节。这对跨模态检索等细粒度任务是十分不利的。

同时,长文本的缺乏也使CLIP采取了类似bag-of-feature(BOF)的简单建模方式,不具备因果推理等复杂能力。

针对这一问题,研究人员提出了Long-CLIP模型。


具体提出了两大策略:保留知识的位置编码扩充(Knowledge-Preserving Stretching of Positional Embedding)与加入核心成分对齐(Primary Component Matching)的微调策略。

保留知识的位置编码扩充

一个简单的扩充输入长度、增强长文本能力的方法是先以固定的比率 λ对位置编码进行插值,再通过长文本进行微调。

研究者们发现,CLIP的不同位置编码的训练程度是不同的。由于训练文本很可能以短文本为主,较低位的位置编码训练较为充分,能够精确地表征绝对位置,而较高位的位置编码则仅能表征其大致的相对位置。因此,对不同位置的编码进行插值的代价是不同的。

基于以上观察,研究者保留了前20个位置编码,而对于剩下的57个位置编码,则以一个更大的比率λ进行插值,计算公式可表示为:

实验表明,相较于直接插值,该策略可以在支持更长的总长度的同时大幅提升在各个任务上的性能。

加入核心属性对齐的微调

仅仅引入长文本微调会使模型走入另一个误区,即一视同仁地囊括所有细节。针对这一问题,研究者们在微调中引入核心属性对齐这一策略。

具体而言,研究者们利用主成分分析(PCA)算法,从细粒度的图像特征中提取核心属性,将其余属性过滤后重建粗粒度图像特征,并将其与概括性的短文本进行对齐。这一策略既要求模型不仅能够包含更多的细节(细粒度对齐),同时还能识别并建模其中最为核心的属性(核心成分提取与粗粒度对齐)。

加入核心属性对齐的微调流程

即插即用在各种多模态任务中

在图文检索、图像生成等领域,Long-CLIP可即插即用地替换CLIP。

比如图文检索,Long-CLIP能够在图像与文本模态捕捉更多细粒度信息,从而可以增强相似图像和文本的区分能力,大幅提升图文检索的表现。

无论是在传统的短文本检索(COCO、Flickr30k),还是在长文本检索任务上,Long-CLIP在召回率上均有显著提升。

短文本-图像检索实验结果

长文本-图像检索实验结果

长文本-图像检索可视化,棕色文本为区分两张图片的关键细节

除此之外,CLIP的文本编码器常被用于文本到图像生成模型中,如stable diffusion系列等。但由于长文本能力的缺失,用于生成图像的文本描述通常都十分简短,无法个性化地订制各种细节。

Long-CLIP可以突破77个token的限制,实现篇章级别的图像生成(右下)。

也可以在77个token内建模更多地细节,实现细粒度图像生成(右上)。

论文链接:
https://arxiv.org/abs/2403.15378

代码链接:
https://github.com/beichenzbc/Long-CLIP

评选报名即将截止!

2024年值得关注的AIGC企业&产品

量子位正在评选2024年最值得关注的AIGC企业、 2024年最值得期待的AIGC产品两类奖项,欢迎报名评选评选报名 截至2024年3月31日 

中国AIGC产业峰会「你好,新应用!」已开启报名!点击报名参会 同时,峰会将进行线上直播 ⬇️


点这里👇关注我,记得标星噢

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
AI早知道|OpenAI推出新的图像检测分类器;Hugging Face开源机器人代码库何为美好家庭生活?美国家庭关系专家:做到这三点,将显著提升家庭生活质量最强开源多模态生成模型MM-Interleaved:首创特征同步器,刷新多项SOTA即插即用!上交提出Long-CLIP:解锁CLIP的长文本功能GPT-4o成为全领域SOTA!基准测试远超Gemini和Claude,多模态功能远超GPT-4比肩GPT-4,商汤日日新大幅升级4.0,多模态能力领先一步谷歌这次又“杀疯了”!200万token长文本能力问鼎全球最强,一场大会,AI被提了120次国产多模态大模型狂飙!颜水成挂帅开源Vitron,破解图像/视频模型割裂问题北京内推 |​ 商汤研究院基础多模态大模型组招聘多模态方向算法实习生万字长文总结多模态大模型最新进展(Modality Bridging篇)最强开源多模态生成模型MM-Interleaved:首创特征同步器乳糖-N-新四糖产量超107g/L,中科院团队设计代谢工程和共发酵新策略,显著提升菌株产能华为Mate60系列没有停产,商务部部长会见库克,雷军发SU7路测视频,文心一言或开放百万长文本能力,这就是今天的其他大新闻!练笛鲶鱼效应显著!Sora 发布满月,多模态领域成果丰硕 | 大模型一周大事一个小技巧,解锁ChatGPT「预测未来」?ICLR 2024 | 量化和增强模态偏好影响下的多模态鲁棒性匿名论文提出奇招!增强大模型长文本能力居然还能这么做面壁智能发布最强端侧多模态模型:超越Gemini Pro 、GPT-4V,图像编码快150倍!GPT-4劲敌Claude 3来了,上下文和多模态显著提升:OpenAI是可被超越的Meta提出全新文档级嵌入框架,利用LLM来增强信息检索能力视觉特征在语言空间中如何分布?武大、上海交大提出统一多模态自回归建模框架ACM MM 2024深度多模态生成和检索研讨会,诚邀各界专家学者参与大模型在开放智能体场景中能意识到风险威胁吗?上海交大发布R-Judge安全评测绿色金融 | 绿色产业成本压力显著缓解——兴业绿色景气指数(GPI)年度纵览(2023年)《恒隆与我》轻松拿捏4K高清图像理解!这个多模态大模型自动分析网页海报内容,打工人简直不要太方便上海交大蚂蚁集团:2023中国居民投资理财行为调研报告CVPR 2024 | E2STR:基于多模态上下文学习构建的自进化文本识别模型无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式神韵轰动日本【长篇小说】县委副书记(028)华为查询建议新范式MMQS入选WWW 2024,解锁基于人类反馈的多模态查询建议AI早知道|百度将免费开放长文本能力;Suno推出音乐生成模型Suno V3Got Rerouted
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。