Redian新闻
>
ICCV 2023 | 基于预训练视觉语言模型和大语言模型的零样本图像到文本生成

ICCV 2023 | 基于预训练视觉语言模型和大语言模型的零样本图像到文本生成

公众号新闻

©作者 | Elysia
单位 | 南科大VIP Lab

和大家分享一下我们组 ICCV 2023 中稿的零样本图像-文本(I2T)生成工作 ViECap。该任务目前的一个主流做法是结合预训练的视觉语言模型(VLMs)和大语言模型(LLMs)来完成 I2T 的生成,然而我们发现在微调 VLMs 和 LLMs 以结合这两个预训练模型时,目前的方法至少存在两个问题:


1. 模态偏置,即在文本生成的过程中,来自 LLMs 的语言先验会占据生成过程的主导地位,这是由于通常情况下 LLMs 的能力更强,且来自视觉的指导的强度弱导致的。


2. 物体混淆,即这些在大量数据上进行过预训练的大模型的泛化能力将会退化到指定的微调数据集,从而导致 I2T 模型生成的文本中出现图像中并不存在的物体(而该物体在微调数据集中非常常见)。


该工作通过实验进一步验证了这两个问题,并基于此提出了 ViECap。不使用任何图像-文本对,ViECap 在多个 I2T 任务上表现出了 SOTA 的迁移性(跨数据集测试,NoCaps),并能够生成用户期望风格的文本(幽默,浪漫)。


论文标题:
Transferable Decoding with Visual Entities for Zero-Shot Image Captioning

论文链接:

https://arxiv.org/abs/2307.16525

代码链接:

https://github.com/FeiElysia/ViECap




效果展示




任务介绍


零样本图像-文本(I2T)生成任务的主要目的是使模型没有事先在特定的图像-文本对上进行训练的情况下,能够生成与给定图像相关的文本描述。即在模型看到新的图像时(训练时没见过的新物体,训练时没见过的新图像分布),能够根据模型存储的世界知识生成合理的、与图像内容相关的描述。


该任务可以测试模型的泛化能力,即模型能否将训练时学到的知识应用到未见过的图像领域,以生成图像相关的文本描述;该任务允许模型在没有经过特定领域的图像-文本数据训练的情况下,为多种不同类型的图像生成文本描述;该任务可以避免为不同领域收集和标注大量的图像-文本对,从而降低了数据收集和标注的成本。




研究背景和动机

I2T 任务是一个重要的视觉感知任务。传统的 I2T生成方法需要通过在大量的图像-文本对上进行训练以获得感知图像、与文本对齐并生成文本的能力。最近,VLMs 取得了重要进展,在大量带噪的图像-文本对上进行预训练的 CLIP 具备良好的图像感知能力,并能很好的对齐配对的图像和文本。最近一些工作尝试结合 CLIP 和 LLMs 来完成零样本 I2T 生成任务。为了达到这个目的,需要将 CLIP 的输出特征对齐到 LLMs 的隐空间上。


当前有两种方法解决这个问题:


(1)late-guidance的范式在语言模型完成单词预测后再注入视觉信息(如语言模型完成单词预测后使用 CLIP 计算图像-文本相似度来选择单词),这会导致在解码过程中语言模型具备的语言先验占据主导地位(模态偏置),如上图所示,“jump” 虽然与图像无关,但是其与“skateboarder”一起出现的频率较高,进而在预测中出现了这个单词。


(2)early-guidance 的范式通过微调预训练模型来显式的指导文本生成过程,这种方式可以极大的缓解模态偏置的问题。但是,在一个小的数据集上微调预训练模型通常会导致模型产生物体混淆,即在描述图像时,经常生成图像中并不存在的物体(这个物体可能频繁出现在训练集中)。如上图所示,在 COCO 数据集上进行微调的 I2T 模型,因为没有见过海龟这个概念,当来了一张海龟的图时,模型把海龟误认为 “surfboard”(surfboard 在 COCO 数据集里非常常见)。




进一步的验证

为了进一步验证在利用预训练大模型来实现零样本 I2T 生成任务时存在的模态偏置和物体混淆,我们巧妙的设计几个实验。(1)一个优秀的 I2T 模型应该能够很好的平衡视觉指导和语言指导,为了验证来自视觉指导的强度,我们设计了如下解码策略。我们首先使用训练好的 I2T 模型来生成前 个单词,然后我们将生成的 个单词输入给一个预训练好的语言模型来生成最终的文本。我们将数据指导的强度表示为

中,CIDErmodel 表示生成的文本完全由 I2T 模型控制(即 等于句子长度), 表示语言指导的重要性。当模型产生模态偏置(偏向于语言)时, 将会较小,因为此时只需要通过语言模型就能够预测文本。如上图所示(最左的图),late-guidance 方法 MAGIC 比起 early-guidance 的方法 CapDec 和我们提出的 ViECap 有一个更小的 ,这进一步证实了 late-guidance 方法存在的模态偏置。


Early-guidance 的方法容易产生物体混淆,为了验证这个假设,我们使用 NoCaps 数据集进行测试。NoCaps 包含三个子数据集:in-domain, near-domain, out-of-domain,用以测试 I2T 模型对于训练时未见过的新物体的描述能力。我们使用 CLIP 来计算图像与生成的文本之间的相似度,如上图所示(中间的图),当从 in-domain 迁移到 out-of-domain 时,CapDec 的性能逐渐下降,而我们提出的 ViECap 对于未见过的物体能够保证良好的迁移性。


因为物体混淆表示生成的文本中出现本身并不在图像中的物体,我们进一步分析了不同 I2T 模型生成的文本中是否能够准确包含图像中存在的物体,可以看到从 in-domain 的 I2T 生成到 out-of-domain 的 I2T 生成,CapDec从60.2 下降到了 43.6,产生了严重的物体混淆。




方法介绍

为了避免为不同领域收集和标注大量的图像-文本对,我们只使用文本数据来微调 I2T 模型。具体来说,我们的目标是训练一个解码器,使其在解码的过程中能够更多的去关注到图像中的物体,进而实现良好迁移性。为了达到这个目的,我们构建两种类型的 prompt。


(1)entity-aware hard prompt,训练时,我们通过 NLTK 将文本中的名词提取出来当作从图像中检测得到的物体(即 ),并将之插入到一个 prompt 模板中形成 “There are in the image.” 来构建 entity-aware hard prompt。我们发现简单的使用所有提取得到的名词插入 prompt 会导致 I2T 模型学会一个捷径,即将 hard prompt 中的所有物体直接复制到生成的文本中。


为了规避这种现象,我们提出对每个提取的名词,都按照一定的概率对其进行 mask(即每个提取的名词都有可能不会插入到 prompt 中)。推理时,我们使用冻结的 CLIP 来检测图像中的 ,这样构建的 hard prompt 是训练无关的,不会受到微调数据集的影响,其能够继承 CLIP 的零样本迁移能力。通过这种方式构建 entity-aware hard prompt 的目的是为了使模型在解码过程中能够更多的关注图像中的物体。


(2)soft prompt,训练时,我们只使用文本数据以避免针对不同领域收集和标注大量的图像-文本对,我们使用 CLIP 的文本编码器将文本投射到 CLIP 的特征空间,并给该文本表征添加一个随机高斯噪声使得文本表征尽可能能够表示图像特征(该做法来自 CapDec),然后将之输入给一个可学习的 Transformer 来将该文本表征投射到 GPT-2 的隐空间。


推理时,我们直接使用 CLIP 的图像编码器来将图像投射到 CLIP 的特征空间并直接使用训练过的 Transformer 将之投射到 GPT-2 的隐空间来构建 soft prompt。值得一提的是,在输入 GPT-2 之前,还需要将构建得到的 entity-aware hard prompt 和 soft prompt 在序列维度级联起来,一起输入 GPT-2。



实验


为了验证 ViECap 描述图像中出现的新物体的能力,我们在 NoCaps 数据集上进行测试。具体来说,我们在 COCO 的文本数据上训练 ViECap,然后直接在 NoCaps 上进行验证。如下表所示,对比其他不使用图像-文本对进行训练的方法(DeCap,CapDec),ViECap 在描述新物体时,能够生成更加合理且符合图像的描述。

从 in-domain 到 out-of-domain,DeCap 和 CapDec 的 CIDEr 下降了接近 35,而 ViECap 的 CIDEr 并没有下降,这证明 ViECap 对于新分布的图像具有更强的迁移性。为了进一步的测试 ViECap 的迁移性,我们还在跨数据集的设定下进行了测试(即在一个数据集上进行训练,不进行任何微调,直接在另一个数据集上进行测试),可以看到 ViECap 在大部分文本生成质量的指标上依然能够达到 SOTA 的迁移性。

除此之外,我们还在通用的 I2T 数据集 COCO 和 Flickr30k 上测试了 ViECap 的性能,我们分别在这两个数据集的训练集上进行了微调然后再测试集上进行测试。

由下表可以看到,ViECap 在保持良好迁移性的同时,还能对训练时见过的概念保持优秀的描述能力。只用文本数据进行训练的一个优势是可以让生成的文本符合用户期望的风格,我们在 FlickrStyle10K 上测试了 ViECap,从结果可以看出 ViECap 能够生成符合用户期望风格的文本(即浪漫,幽默)并在文本生成质量上达到了 SOTA。

我们还探索了 ViECap 在低数据量情况下的性能,如下表所示,可以看到,在数据量较少的情况下,使用 ViECap是一个不错的选择。此外,我们还逐步增大 ViECap 中语言模型的规模(从 GPT-2 到 OPT),随着模型规模的增大,ViECap 的 I2T 生成性能逐渐变强,表格显示继续增大语言模型,没有看到显著上限!


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
​ACL 2023 | AD-KD:归因驱动的预训练语言模型知识蒸馏框架微软提出KOSMOS-2.5,能阅读「文本密集图像」的多模态大语言模型​SIGIR 2023 | 基于图的预训练和提示来增强低资源文本分类南洋理工最新视觉语言模型综述:预训练、迁移学习和知识蒸馏啥都有清华&港大提出LanguageMPC:将大语言模型和MPC相结合的新型类人智驾系统NeurIPS 2023 | MSRA、清华、复旦等联合提出AR-Diffusion:基于自回归扩散的文本生成ICCV 2023|目标检测新突破!AlignDet:支持各类检测器完全自监督预训练的框架ICCV 2023 | 面向视觉-语言导航的实体-标志物对齐自适应预训练方法ICCV 2023 | 上交提出CCD:基于自监督字符到字符蒸馏的文本识别思绪在小雨中流连科研上新 | 第2期:可驱动3D肖像生成;阅读文本密集图像的大模型;文本控制音色;基于大模型的推荐智能体大模型和ChatGPT对计算机视觉的影响 | RACV 2023 观点集锦Nat Med丨斯坦福团队利用twitter资源,开发出“病理图像文本对应”的自然语言-图像预训练模型文档字越多,模型越兴奋!KOSMOS-2.5:阅读「文本密集图像」的多模态大语言模型给大模型生成文本发身份证:针对大模型生成文本的可编码水印技术1/10体量达到SOTA!谷歌发布5B参数视觉语言模型PaLI-3,更小更快却更强NeurIPS 2023 | 旷视张祥雨等人提出RevColV2:当解耦学习遇见自监督训练!视觉预训练新思路顶刊TMM 2023!中科院提出CLIP-VG:基于自步课程学习实现CLIP在视觉语言理解与定位任务上的无监督迁移研究IJCAI 2023 | 清华提出:具有显式位置增强的鲁棒场景文本图像超分辨率网络《大宅门》&《三生石下》第五章 列宁主义救中国 (3)ICCV 2023 | 图像重缩放新方法:无需对模型重新训练即可提高性能NeurIPS 2023 | RevCol V2: 当解耦学习遇上自监督训练,视觉预训练的思路ICCV 2023 | 将MAE预训练好的Encoder-Decoder整体迁移到目标检测中走向计算机视觉的通用人工智能:GPT和大语言模型带来的启发怀特兄弟飞机在大兴机场试飞NeurIPS 2023 | FD-Align:基于特征判别对齐的预训练模型小样本微调爬藤到底爬的是什么谷歌视觉语言模型PaLI-3问世,参数仅5B,更小、更快、更强单张A100,50亿步训练!英伟达开源最强虚拟角色定制模型,超逼真动作零样本生成,游戏动画行业要变天大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友预训练机器阅读理解模型:对齐生成式预训练与判别式下游场景南洋理工大学最新视觉语言模型综述:预训练、迁移学习和知识蒸馏啥都有Texas Sunshine 2023新出炉的Indiana Jones and the Dial of Destiny 2023 ‧ Adventure如何判别大语言模型生成的文本?UTMB 越野大语言模型(LLM)预训练数据集调研分析第3年那1年内每100辆车有多少毛病三登雪山 Mt. Shasta 2023.07.08
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。