Redian新闻
>
为多模态LLM指明方向,邱锡鹏团队提出具有内生跨模态能力的SpeechGPT

为多模态LLM指明方向,邱锡鹏团队提出具有内生跨模态能力的SpeechGPT

公众号新闻
机器之心报道

机器之心编辑部

「 SpeechGPT 为打造真正的多模态大语言模型指明了方向:将不同模态的数据(视觉,语音等)统一表示为离散单元集成在 LLM 之中,在跨模态数据集上经过预训练和指令微调,来使得模型具有多模态理解和生成的能力,从而离 AGI 更进一步。」—— 复旦大学计算机学院教授邱锡鹏

大型语言模型(LLM)在各种自然语言处理任务上表现出惊人的能力。与此同时,多模态大型语言模型,如 GPT-4、PALM-E 和 LLaVA,已经探索了 LLM 理解多模态信息的能力。然而,当前 LLM 与通用人工智能(AGI)之间仍存在显著差距。首先,大多数当前 LLM 只能感知和理解多模态内容,而不能自然而然地生成多模态内容。其次,像图像和语音这样的连续信号不能直接适应接收离散 token 的 LLM。

当前的语音 - 语言(speech-language)模型主要采用级联模式,即 LLM 与自动语音识别(ASR)模型或文本到语音(TTS)模型串联连接,或者 LLM 作为控制中心,与多个语音处理模型集成以涵盖多个音频或语音任务。一些关于生成式口语语言模型的先前工作涉及将语音信号编码为离散表示,并使用语言模型对其进行建模。

虽然现有的级联方法或口语语言模型能够感知和生成语音,但仍存在一些限制。首先,在级联模型中,LLM 仅充当内容生成器。由于语音和文本的表示没有对齐,LLM 的知识无法迁移到语音模态中。其次,级联方法存在失去语音的附加语言信号(如情感和韵律)的问题。第三,现有的口语语言模型只能合成语音,而无法理解其语义信息,因此无法实现真正的跨模态感知和生成。

在本文中,来自复旦大学的张栋、邱锡鹏等研究者提出了 SpeechGPT,这是一个具有内生跨模态对话能力的大型语言模型,能够感知和生成多模态内容。他们通过自监督训练的语音模型对语音进行离散化处理,以统一语音和文本之间的模态。然后,他们将离散的语音 token 扩展到 LLM 的词汇表中,从而赋予模型感知和生成语音的内生能力。


  • 论文链接:https://arxiv.org/pdf/2305.11000.pdf
  • demo 地址:https://0nutation.github.io/SpeechGPT.github.io/
  • GitHub 地址:https://github.com/0nutation/SpeechGPT

为了为模型提供处理多模态指令的能力,研究者构建了第一个语音 - 文本跨模态指令遵循数据集 SpeechInstruct。具体而言,他们将语音离散化为离散单元(discrete unit),并基于现有的 ASR 数据集构建跨模态的单元 - 文本(unit-text)对。同时,他们使用 GPT-4 构建了针对多个任务的数百个指令,以模拟实际用户的指令,具体见附录 B。此外,为了进一步增强模型的跨模态能力,他们设计了「Chain-of-Modality」指令数据,即模型接收语音命令,用文本思考过程,然后以语音形式输出响应。

为了实现更好的跨模态迁移和高效的训练,SpeechGPT 经历了三个阶段的训练过程:模态适应预训练、跨模态指令微调和 chain-of-modality 指令微调。第一阶段通过离散语音单元连续任务实现了 SpeechGPT 的语音理解能力。第二阶段利用 SpeechInstruct 改进了模型的跨模态能力。第三阶段利用参数高效的 LoRA 微调进行进一步的模态对齐。

为了评估 SpeechGPT 的有效性,研究者进行了广泛的人工评估和案例分析,以评估 SpeechGPT 在文本任务、语音 - 文本跨模态任务和口语对话任务上的性能。结果表明,SpeechGPT 在单模态和跨模态指令遵循任务以及口语对话任务方面展现出强大的能力。


SpeechInstruct 

由于公开可用的语音数据的限制和语音 - 文本任务的多样性不足,研究者构建了 SpeechInstruct,这是一个语音 - 文本跨模态指令遵循数据集。该数据集分为两个部分,第一部分叫做跨模态指令,第二部分叫做 Chain-of-Modality 指令。SpeechInstruct 的构建过程如图 2 所示。


SpeechGPT

研究者设计了一个统一的框架,以实现不同模态之间的架构兼容性。如图 2 所示,他们的模型有三个主要组件:离散单元提取器、大型语言模型和单元声码器。在这个架构下,LLM 可以感知多模态输入并生成多模态输出。

离散单元提取器

离散单元提取器利用 Hidden-unit BERT(HuBERT)模型将连续的语音信号转换为一系列离散单元的序列。

HuBERT 是一个自监督模型,它通过对模型的中间表示应用 k-means 聚类来为掩蔽的音频片段预测离散标签进行学习。它结合了 1-D 卷积层和一个 Transformer 编码器,将语音编码为连续的中间表示,然后使用 k-means 模型将这些表示转换为一系列聚类索引的序列。随后,相邻的重复索引被移除,得到表示为的离散单元序列,K 表示聚类总数。

大型语言模型

研究者采用 Meta AI 的 LLaMA 模型作为他们的大型语言模型。LLaMA 包括一个嵌入层、多个 Transformer 块和一个语言模型头层。LLaMA 的参数总数范围从 7B 到 65B 不等。通过使用包含 1.0 万亿 token 的大规模训练数据集,LLaMA 在各种自然语言处理基准测试中展现出与规模更大的 175B GPT-3 相当的性能。

单元声码器

由于 (Polyak et al., 2021) 中单个说话人单元声码器的限制,研究者训练了一个多说话人单元的 HiFi-GAN,用于从离散表示中解码语音信号。HiFi-GAN 的架构包括一个生成器 G 和多个判别器 D。生成器使用查找表(Look-Up Tables,LUT)来嵌入离散表示,并通过一系列由转置卷积和具有扩张层的残差块组成的模块对嵌入序列进行上采样。说话人嵌入被连接到上采样序列中的每个帧上。判别器包括一个多周期判别器(Multi-Period Discriminator,MPD)和一个多尺度判别器(Multi-Scale Discriminator,MSD),其架构与 (Polyak et al., 2021) 相同。

实验

跨模态指令遵循 

如表 1 所示,当提供不同的指令时,模型能够执行相应的任务并根据这些输入生成准确的输出。


口语对话 

表 2 展示了 SpeechGPT 的 10 个口语对话案例。对话表明,在与人类的交互中,SpeechGPT 能够理解语音指令并用语音作出相应回应,同时遵守「HHH」标准(无害、有帮助、诚实)。


局限性

尽管 SpeechGPT 展示出令人印象深刻的跨模态指令遵循和口语对话能力,但仍存在一些限制:

  • 它不考虑语音中的语音外语言信息,例如无法以不同的情绪语调生成回应;
  • 它在生成基于语音的回应之前需要生成基于文本的回应;
  • 由于上下文长度的限制,它无法支持多轮对话。

更多细节请参见原论文。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理LLM底座模型:LLaMA、Palm、GLM、BLOOM、GPT结构对比ChatGPT时代程序员生存指南,这四步很关键|IEEE Spectrum「多模态LLM」最新介绍!数据、论文集直接打包带走达摩院猫头鹰mPLUG-Owl亮相:模块化多模态大模型,追赶GPT-4多模态能力人手一个ChatGPT!微软DeepSpeed Chat震撼发布,一键RLHF训练千亿级大模型如松:皇上指明了方向,馅饼砸在谁头上?九剑一魂 - 第23回 太子遇害 贾后伏诛(九)微软开源DeepSpeed Chat,人人可快速训练百亿、千亿级ChatGPT大模型南大Nat. Electron.: 梁世军、缪峰团队提出具有超高能效比的并行存内无线计算方案ACL 2023 | 复旦邱锡鹏组提出模块化Prompt多任务预训练,可快速适应下游任务斜风细雨不须归中科院发布多模态 ChatGPT,图片、语言、视频都可以 Chat ?中文多模态大模型力作Alpaca-CoT项目原作解读:多接口统一的轻量级LLM指令微调平台回国指导阿里拆分和指明方向后 马云开始周游世界:巴基斯坦,孟加拉国和尼泊尔意外地好!!!!!Microsoft 必应图像创建者爱晒衣服的日本人Prompt解锁语音语言模型生成能力,SpeechGen实现语音翻译、修补多项任务【强烈推荐】OpenAI Shyamal 分享LLM 创业前沿方向,我们所处的历史阶段,AI-IMPACT框架!多模态如何自监督?爱丁堡等最新「自监督多模态学习」综述:目标函数、数据对齐和模型架构650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了GPT-3计划开源!Sam Altman自曝急缺GPU,GPT-4多模态能力明年开放多模态大语言模型综述来啦!一文带你理清多模态关键技术字节团队提出猞猁Lynx模型:多模态LLMs理解认知生成类榜单SoTA攀登航天科技高峰 总书记指明方向更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」无需人力标注!悉尼大学华人团队提出「GPT自监督标注」范式,完美解决标注成本、偏见、评估问题英伟达正准备推出具有 94GB 和 64GB 显存的 H100 Hopper 加速卡650亿参数,8块GPU就能全参数微调!邱锡鹏团队把大模型门槛打下来了!GPT-3 计划开源!Sam Altman 自曝急缺 GPU,GPT-4 多模态能力明年开放长篇小说《如絮》第一百零三章 哈尔滨-1952-1953年 2 任务无需RLHF就能对齐人类,性能比肩ChatGPT!华人团队提出袋熊Wombat模型智源Emu开源!超越DeepMind,刷新8项SOTA,首个「多模态-to-多模态」全能高手赋予LLM视觉理解能力,360人工智能研究院开源中文多模态对话模型SEEChat微软宣布开源DeepSpeed-Chat ,训练提速15倍以上,有望实现人手一个ChatGPT?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。