Redian新闻
>
12种模态,一个学习框架,Meta-Transformer实现骨干网络大一统

12种模态,一个学习框架,Meta-Transformer实现骨干网络大一统

公众号新闻
机器之心专栏
机器之心编辑部

由统一的多模态理解,迈向通用感知智能。


在迈向通用人工智能(AGI)的诸多可能的方向中,发展多模态大模型(MLLM)已然成为当前炙手可热的重要路径。在 GPT4 对图文理解的冲击下,更多模态的理解成为学术界关注的焦点,通感时代真要来了吗?


我们知道,人类在学习的过程中不仅仅会接触到文字、图像,还会同时接触声音、视频等各种模态的信息,并在脑中对这些信息同时进行加工处理和统一学习。


那么:人工智能可以具备人类统一学习多模态信息的能力吗?事实上,多模态之间的互补性可以增强人工智能的学习能力,比如,CLIP 将图像与文本进行统一学习的方式就取得了巨大的成功。但受限于多种模态之间巨大的差异性以及现有多模态模型对配对数据的依赖性,实现模态通用感知存在着艰巨挑战。


为了解决上述挑战,近日,香港中文大学多媒体实验室联合上海人工智能实验室的研究团队提出一个统一多模态学习框架 ——Meta-Transformer,采用全新的设计思路,通过统一学习无配对数据,可以理解 12 种模态信息




  • 网站地址:https://kxgong.github.io/meta_transformer/
  • 代码地址:https://github.com/invictus717/MetaTransformer

Meta-Transformer 实现骨干网络的大一统,具有一个模态共享编码器,并且无需配对数据,能够在 12 个不同的模态上完成 16 个不同的感知任务。该工作不仅为当前多模态学习提供了强大的工具,也给多模态领域带来新的设计思路。


图 1:Meta-Transformer 框架下统一的多模态感知,能够处理 12 种不同的模态


表 1:相比于现有工作,Meta-Transformer 可以利用统一的模态共享编码器来处理更多的模态,并且摆脱了多模态训练过程中对于配对数据的依赖性。

接下来,一起详细看一看 Meta-Transformer 的创新与贡献体现在哪些方面。

Meta-Transformer 通向无限模态的感知范式

1、统一的模态共享编码器

相比于先前 CLIP 使用不同的图像和文本编码器,以及 BEIT-3 的部分共享编码器框架,Meta-Transformer 的核心设计在于一个所有模态完全共享的编码器。该设计在编码器层面统一多达 12 个模态,证明了多模态数据完全共享编码器的可行性。共享编码器有助于在编码器阶段减小由不同的网络参数引入的表征差异,这离统一的多模态感知智能更近了一步,即一个通用的网络结构处理任意模态的信息。

Meta-Transformer 可以有效地处理和学习高达 12 种模态的数据,从常见的文本、图像到音频、视频,甚至在其他更复杂的数据类型上也有所突破,如点云和高光谱数据。该设计有助于拓宽未来的多模态工作的设计思路。


图 2:Meta-Transformer 的框架图:对于不同模态的数据,研究人员基于不同模态的信息特性设计了相应的特征序列构造方式,接着将得到的特征序列输入到预训练后参数冻结的编码器中,由此提取的表征能够在多个模态上解决下游多个任务。
 
2、无需配对数据:更加灵活的训练方式

当前许多模态工作依赖于内容配对的多模态数据来语义对齐两个模态,但收集生成多个模态两两之间配对的数据的高难度限制了当前的多模态工作推广到更广泛的数据模态上。为了缓解这一限制,该研究提出 Data2Seq 方法, 将不同模态的原数据嵌入到一个共同编码空间,转换成各自对应 token 序列,随后使用统一的模态共享编码器继续编码 token 序列,因而任一模态的数据就可以训练 Meta-Transformer 感知相应的模态的能力。实验表明,Meta-Transformer 能够在缺少配对数据训练场景下展现优异性能。

3、更多模态:通向模态通用感知

现有的多模态模态框架多侧重于视觉和语言,较少衍生到更多其他模态。相比之下,Meta-Transformer 能够对于 12 种不同的数据模态提供一套统一的学习框架,包括文本、图像、点云、音频、视频、红外、超光谱、X 射线、表格、图形、时间序列和惯性测量单元(IMU)数据。这种广泛的数据模态覆盖,极大扩展了 Meta-Transformer 的应用范围,并且 Meta-transformer 框架对于扩展到更多的模态有着易扩展、低成本、高训练效率的优势。

Meta-Transformer 的方法介绍

Meta-Transformer 统一处理来自不同模态的数据,并通过共享编码器完成对十二种模态的编码。为了实现这一目标,Meta-Transformer 由三个部分组成:Data2Seq tokenization 模块、统一的共享编码模块和下游任务学习模块。

首先,研究人员提出了一套处理多模态数据的核心方案:数据分组 — 卷积提取局部语义 — 语义聚合 —— 空间映射,将各种模态的数据转换为在同一个共享的嵌入空间内的 token 序列。

图 3:Data-to-Sequence 的设计方案能够有效地将不同模态的数据转化为同一个流行嵌入空间内的 token 序列,具有极强的模态拓展性。


紧接着,Meta-Transformer 将使用统一的共享编码器对上一步得到的的不同模态的 token 序列进行编码。研究人员使用 LAION-2B 数据集对于骨干网络进行预训练,在预训练之后冻结了模型参数,得到深度为 L 的 Transformer 编码器由多个堆叠的多头自注意力(MSA)层和 MLP 块组成。输入的 token 首先进入 MSA 层,然后进入 MLP 块。然后第 (ℓ- 1) 个 MLP 块的输出作为第ℓ个 MSA 层的输入,层归一化(LN)被添加到每一层之前。MLP 包含两个线性 FC 层和一个 GELU 非线性激活层。

最后,在获得学习表征后,研究人员将表征输入特定任务的头,它主要由 MLP 组成,因模态和任务而异。Meta-Transformer 的学习目标可以概括为



其中 h (・),g (・),与 f (・),分别表示 tokenizer,模型骨干网络,以及下游任务网络中的运算过程。

实验结果

Meta-Transformer 具有丰富且优秀的实验结果。下表 2 展示了 Meta-Transformer 在不同模态上的实验内容。可以看出,Meta-Transformer 从 12 种模态中提取表征信息,能够有效地服务 16 个不同模态的下游任务,且拥有出色的性能。


表 2:Meta-Transformer 能处理 12 个模态的 16 个感知任务.


图 3:Meta-Transforme 有着优秀的多模态感知能力,在文字、图像、点云、声音、红外、高光谱以及医疗 X 光图像理解任务方面与现有的单模态 SOTA 模型性能相接近,并且在多模态理解能力方面大幅领先 ImageBind.

对于图像理解:

如下表 3 所示,与 Swin Transformer 系列和 InternImage 相比,Meta-Transformer 在图像理解任务中表现突出。在分类任务中,Meta-Transformer 与 Meta-Transformer-B16F 和 Meta-Transformer-L14F 在零镜头分类下的表现非常好,分别达到了 69.3% 和 75.3%。与此同时,当调整预训练参数时,Meta-Transformer-B16T 和 Meta-Transformer-L14T 分别达到 85.4% 和 88. 1% 的准确率,超越了现有最先进的方法。在目标检测与语义分割方面,Meta-Transformer 也提供了出色的性能,进一步证明了其对图像理解的通用能力。

表 3:Meta-Transformer 对于图像理解方面的能力,分别在 ImageNet-1K 图像分类,MS COCO 目标检测,以及 ADE-20K 的语义分割上进行了评估。

对于点云理解:

表 4 展示了 Meta-Transformer 在点云上的实验结果。当在二维数据上进行预训练时,Meta-Transformer 在 ModelNet-40 上仅用 0.6M 可训练参数就达到了 93.6% 的总体准确率(OA),与表现最好的模型不相上下。此外,Meta-Transformer 在 ShapeNetPart 数据集中表现出色,仅训练 2.3M 参数的情况下,在实例 mIoU 和类别 mIoU 方面都获得了最好的实验结果,分别为 87.0% 和 85.2%。由此可见,Meta-Transformer 在点云理解任务中表现出了显著的优势,在可训练参数较少的情况下提供了具有竞争力的性能。

表 4:Meta-Transformer 对于点云理解方面的能力,分别在 ModelNet-40 形状分类,S3DIS 室内场景分割,以及 ShapeNet Part 物体分割任务上进行了评估。


研究结论

Meta-Transformer 是一种统一的多模态学习框架,它能处理并关联来自多种模态的信息,包括自然语言、2D 图像、3D 点云、音频、视频等。它实现了无配对训练数据的场景下进行多模态感知,是第一个能够在 12 种模态上进行统一学习的框架。Meta-Transformer 能够有助于将多模态大模型推广至更多模态,也为实现统一的多模态智能提供了参考。Meta-Transformer 具有的多模态感知理解能力也会为人工智能技术作为服务全社会的基础设施,对于教育、医疗、娱乐等领域提供更智能、更便捷、更丰富多元的服务。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Transformer作者创立,Hinton、李飞飞青睐,明星创企Cohere推出打工人专用知识助手专访生数科技唐家渝:清华系团队拿到上亿融资,用Transformer来做多模态大模型在Transformer时代重塑RNN,RWKV将非Transformer架构扩展到数百亿参数ICCV 2023 | token过度聚焦暴露注意力机制弱点,两种模块设计增强视觉Transformer鲁棒性​下一代Transformer:RetNet结构可视化及Vision RetNet展望昊字现在在姓名中很流行揭秘Transformer基于上下文学习的能力:看它如何学到正确的线性模型?ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响Transformer的上下文学习能力是哪来的?2023回国 同学聚会(图)云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理Transformer取代者登场!微软、清华刚推出RetNet:成本低、速度快、性能强Transformer八子谷歌一个也没留住!最后一名作者已宣布离职创业实现输入到输出「模态自由」, NUS华人团队开源NExT-GPT,最接近AGI的大一统多模态大模型来了MIT研究人员将Transformer与图神经网络结合,用于设计全新蛋白质transformer的细节到底是怎么样的?Transformer 连环18问!炸裂!微软新作LongNet:将Transformer扩展到10亿个Tokens清华提出开源工具学习框架,接入真实世界 16000+API, 效果达 ChatGPTGzip+ kNN文本分类竟然击败Transformers:无需预训练、14行代码实现爱是做出来的PackedBert:如何用打包的方式加速Transformer的自然语言处理任务RWKV论文燃爆!将RNN崛起进行到底!可扩百亿级参数,与Transformer表现相当!5076 血壮山河之武汉会战 黄广战役 8微软提出CoDi:开创性多模态扩散生成模型,实现4种模态任意输入输出“大一统”大模型论文爆火,4种模态任意输入输出基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘transformer高效训练方法一览比Transformer快4成!Meta发布全新Megabyte模型,解决算力损耗硬伤能胜任统计学家?Transformers超强学习机制「自动算法选择」Meta VS Apple: Meta产品做的差 Apple产品做的好 和员工福利待遇的关系「大一统」大模型论文爆火,4种模态任意输入输出,华人本科生5篇顶会一作,网友:近期最不可思议的论文无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章专访生数科技唐家渝:清华系团队拿到近亿融资,用Transformer来做多模态大模型美丽的清晨,美好的一天破解一切模态,无限接近AGI!新加坡华人团队开源全能「大一统」多模态大模型清华大学提出LiVT,用视觉Transformer学习长尾数据,解决不平衡标注数据不在话下
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。