Redian新闻
>
刷新多个SOTA!Meta重磅新作AnyMAL:多模态版Llama2来了!

刷新多个SOTA!Meta重磅新作AnyMAL:多模态版Llama2来了!

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【多模态和Transformer】交流群

在CVer微信公众号后台回复:AnyMAL,可以下载本论文pdf,学起来!

转载自:机器之心 | 编辑:大盘鸡、泽南

在多个基准测试中均刷新了业界最好的 zero-shot 性能。

一个统一的模型,可以对不同模态输入内容(文本、图像、视频、音频、IMU 运动传感器数据)实现理解,并生成文本响应,技术基于 Llama 2,来自 Meta。


昨天,多模态大模型 AnyMAL 的研究吸引了 AI 研究社区的关注。


大型语言模型(LLM)以其巨大的规模和复杂性而闻名,它极大地增强了机器理解和表达人类语言的能力。LLM 的进步使视觉语言领域有了显著进步,弥合了图像编码器和 LLM 之间的差距,将它们的推理能力结合起来。先前的多模态 LLM 研究集中在结合文本和另一种模态的模型上,如文本和图像模型,或者集中在非开源的专有语言模型上。


如果有能够实现多模态的更好方法,将各种模态能够嵌入在 LLM 中使用,会给我们带来不一样的体验吗?


输出示例


为解决这个问题,来自 Meta 的研究人员近日推出了 AnyMAL(Any-Modality Augmented Language Model)。这是一个经过训练的多模态编码器集合,可将来自各种模态(包括图像、视频、音频和 IMU 运动传感器数据)的数据转换到 LLM 的文本嵌入空间。 


AnyMAL: An Efficient and Scalable Any-Modality Augmented Language Model

论文地址:https://arxiv.org/abs/2309.16058


据介绍,该研究的主要贡献如下:


  • 为构建多模态 LLM 提出了一种高效、可扩展的解决方案。本文提供了在大型数据集上预先训练的投影层,这些数据集包含多种模态(例如,2 亿张图像、220 万段音频、50 万 IMU 时间序列、2800 万段视频),所有数据集都与同一个大模型(LLaMA-2- 70B-chat)对齐,从而实现了交错式多模态上下文提示。

  • 本文利用跨三种模式(图像、视频和音频)的多模态指令集对模型进行了进一步微调,涵盖了简单 QA 领域之外的各种不受约束的任务。该数据集具有高质量的人工收集指令数据,因此本文也将其作为复杂多模态推理任务的基准。

  • 与现有文献中的模型相比,本文最佳模型在各种任务和模式的自动和人工评估中都取得了很好的零误差性能,在 VQAv2 上提高了 7.0% 的相对准确率,在零误差 COCO 图像字幕上提高了 8.4% 的 CIDEr,在 AudioCaps 上提高了 14.5% 的 CIDEr,创造了新的 SOTA。

方法


方法概览


预训练模态对齐


本文使用配对的多模态数据(特定模态信号和文本叙述)对 LLM 进行预训练,从而实现多模态理解能力,如图 2 所示。具体来说,研究为每种模态训练一个轻量级适配器,将输入信号投射到特定 LLM 的文本 token 嵌入空间中。这样,LLM 的文本 token 嵌入空间就变成了一个联合 token 嵌入空间,token 代表文本或其他模态。


对于图像对齐,研究使用了 LAION-2B 数据集的一个干净子集,使用 CAT 方法进行过滤,并对任何可检测的人脸进行模糊处理。对于音频对齐,研究使用 AudioSet (2.1M)、AudioCaps (46K) 和 CLOTHO (5K) 数据集。研究还使用 Ego4D 数据集进行 IMU 和文本对齐 (528K)。


对于大型数据集,将预训练扩展到 70B 参数模型需要大量资源,通常需要使用 FSDP 封装器在多个 GPU 上对模型进行分片。为了有效地扩展训练规模,本文在多模态设置中实施了量化策略(4 bit 和 8 bit),其中冻结了模型的 LLM 部分,只有模态 tokenizer 是可训练的。这种方法将内存需求缩小了一个数量级。因此, 70B AnyMAL 能够在单个 80GB VRAM GPU 上就完成训练,batch size 为 4。与 FSDP 相比,本文所提出的量化方法只使用了 GPU 资源的一半,却实现了相同的吞吐量。



利用多模态指令数据集进行微调

为了进一步提高模型对不同输入模态的指令跟随能力,研究利用多模态指令调整(MM-IT)数据集进行了额外的微调。具体来说,我们将输入连接为 [],这样响应目标就同时以文本指令和模态输入为基础。研究对以下两种情况进行消减:(1)在不改变 LLM 参数的情况下训练投影层;或(2)使用低级适应(Low-Rank Adaptation)进一步调整 LM 行为。研究同时使用人工收集的指令调整数据集和合成数据。


实验及结果


图像标题生成


表 2 显示了在 COCO 和标有「详细描述」 任务(MM-IT-Cap)的 MM-IT 数据集子集上的零样本图像字幕生成性能。可以看出, AnyMAL 变体在这两个数据集上的表现都明显优于基线。值得注意的是,AnyMAL-13B 和 AnyMAL-70B 变体的性能没有明显差距。这一结果表明,底层 LLM 能力对图像标题生成任务的影响较小,但在很大程度上取决于数据规模和配准方法。



多模态推理任务的人工评估


图 3 显示,与基线(LLaVA:34.4% 的胜率和 MiniGPT4:27.0% 的胜率)相比,AnyMAL 性能强劲,与人工标注的实际样本的差距较小(41.1% 的胜率)。值得注意的是,使用完整指令集微调的模型表现出最高的优先胜率,显示出与人类标注的响应相当的视觉理解和推理能力。还值得注意的是,BLIP-2 和 InstructBLIP 在这些开放式查询中表现不佳(分别为 4.1% 和 16.7% 的优先胜出率),尽管它们在公开的 VQA 基准测试中表现出色(见表 4)。



VQA 基准


表 4 显示了在 Hateful Meme 数据集 、VQAv2 、TextVQA 、ScienceQA、VizWiz 和 OKVQA  上的零样本性能,与文献中报告了各自基准上零样本结果的模型进行了比较。研究将重点放在零样本评估上,以便在推理时最好地估计模型在开放式查询上的性能。



视频 QA 基准


如表 6 所示,研究在三个具有挑战性的视频 QA 基准上对模型进行了评估。



音频字幕生成


表 5 显示了 AudioCaps 基准数据集上的音频字幕生成结果。AnyMAL 的表现明显优于文献中其他最先进的音频字幕模型(例如,CIDEr +10.9pp,SPICE +5.8pp),这表明所提出的方法不仅适用于视觉,还适用于各种模态。与 7B 和 13B 变体相比,文本 70B 模型表现出了明显的优势。




有趣的是,有人从 AnyMAL 论文提交的方式、类型和时间推测,Meta 似乎正计划通过其新推出的混合现实 / 元宇宙头显来收集多模态数据。说不定这些研究成果在未来会被整合到 Meta 的元宇宙产品线里,或很快进入消费级应用。


更多详细内容请阅读原文。

在CVer微信公众号后台回复:AnyMAL,可以下载本论文pdf,学起来!

点击进入—>【多模态和Transformer】交流群

ICCV / CVPR 2023论文和代码下载

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

多模态和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-多模态或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如多模态或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer333,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
顶尖实验室王教授:多模态医疗影像数据的配准技术|收获一作论文与导师推荐信!AI搞定谷歌验证码,最新多模态大模型比GPT-4V空间理解更准确 | 苹果AI/ML团队实现输入到输出「模态自由」, NUS华人团队开源NExT-GPT,最接近AGI的大一统多模态大模型来了people taught by the hard blows of life to grow with gentle touc刷新多个SOTA!北大提出Video-LLaVA:超强视频语言大模型!红色日记 10.21-30英语句子什么时候用to do something,什么时候用doing something?ChatGPT最重大更新来了:多模态将上线,能说会看了港大&百度提出LLMRec:基于LLM增强的多模态图神经网络推荐多肉,萌倒了多少女人心马毅团队新作!微调多模态大模型会「灾难性遗忘」,让性能大减北大&腾讯打造多模态15边形战士!语言作“纽带”,拳打脚踢各模态,超越ImagebindDreamLLM:多功能多模态大型语言模型,你的DreamLLM~UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源谷歌重磅新作PaLI-3:视觉语言新模型!更小、更快、更强用语言对齐多模态信息,北大腾讯等提出LanguageBind,刷新多个榜单留学生必备的的七个Soft Skills软技能,受用一生!破解一切模态,无限接近AGI!新加坡华人团队开源全能「大一统」多模态大模型清华系ChatGLM3现场怼脸演示!多模态直逼GPT-4V,国产Code Interpreter来了新闻已死?不,她只是凋零了上海交大ACM班总教头团队重磅新作,带你动手学机器学习!媲美Gen-2,Meta多模态创AI生图新里程碑!破文生视频历史难题,静图秒变视频逼真到炸裂上海内推 | 小红书多模态算法组招聘多模态CV/NLP算法实习生首个通用语音翻译系统!Meta重磅开源SeamlessM4T:支持100种语言多模态翻译,附47万小时训练数据ICCV 2023 | 刷新多项记录!武大&快手提出DVIS:解耦视频实例分割框架马毅团队新作!微调多模态大模型会「灾难性遗忘」阿里云中标9亿AI算力大单;浙大校友开源LLaVA-1.5多模态大模型;Meta因开源模型遭抗议丨AIGC大事日报多模态版Llama2上线,Meta发布AnyMAL北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务TKDE 2023 | 超越共现!大连理工提出全新多模态会话推荐系统NeurIPS 2023 | 北大&华为提出:多模态基础大模型的高效微调Erklärung zur Zusammenarbeit15小时、几千元训完中文版LLaMA2!低成本方案全面开源,包含代码权重,支持商用新多模态大模型霸榜!支持图文混合输入,不懂知识还能现学安大略湖畔
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。