Redian新闻
>
能说会唱,AudioGPT惊艳亮相!浙大、北大、CMU等提出全新音频理解与生成系统

能说会唱,AudioGPT惊艳亮相!浙大、北大、CMU等提出全新音频理解与生成系统

公众号新闻



  新智元报道  

编辑:好困
【新智元导读】近日,来自浙大、北大、CMU和人大的研究人员提出了一种全新的音频理解与生成系统AudioGPT。不仅能够实现跨模态转换,以及音频模态的理解、生成,还能能够解决20+种多语种、多模态的AI音频任务。

最近几个月,ChatGPT、GPT-4横空出世,火爆出圈,大型语言模型 (LLM) 在语言理解、生成、交互和推理方面表现出的非凡能力,引起了学界和业界的极大关注,也让人们看到了LLM在构建通用人工智能 (AGI) 系统方面的潜力。
现有的GPT模型具有极高的语言生成能力,是目前最为先进的自然语言处理模型之一,广泛应用于对话、翻译、代码生成等的自然语言处理领域。
除了书面语言,用户在自然对话中主要使用口语(Spoken Language),而传统大语言模型却无法胜任音频理解与生成任务:
  • GPT模态限制

用户在自然对话中主要使用口语,对口语理解与合成有极大需求,而单模态GPT不能满足对音频(语音、音乐、背景音、3D说话人)模态的理解、生成需求。

  • 音频数据、模型相对少

基础模型(Foundation Model)少或交互性差。相较于文本模态,用于重新训练语音多模态GPT的数据较少。

  • 用户交互性差

用户广泛的使用语音助手如Siri、Alexa基于自然对话高效地完成工作。然而目前GPT之间的交互大多根据键盘输入的文本,交互性差,口语交互更能拉进和用户之间的关系,提升模型易用性。

最近,浙江大学、北京大学、卡内基梅隆大学和中国人民大学的研究人员针对以上难题,提出了全新的音频理解与生成系统AudioGPT。
AudioGPT以ChatGPT充当负责对话与控制的大脑,语音基础模型协同以完成跨模态转换、以及音频(语音、音乐、背景音、3D说话人)模态的理解、生成,能够解决20+种多语种、多模态的AI音频任务。

论文地址:https://arxiv.org/pdf/2304.12995.pdf
Github:https://github.com/AIGC-Audio/AudioGPT
Huggingg Face: https://huggingface.co/spaces/AIGC-Audio/AudioGPT

听觉效果超炫


现在,HuggingGPT增加了Gradio演示:
话不多说,咱们直接看一个AudioGPT对话的例子,包括里面保含了文本、图像和语音三种模态的输入,AudioGPT能理解不同模态的输入,生成结果也能以文本、图像、音频相结合的方式展现给用户。
语音
Q1: Generate a speech with text "here we go".
A1: 
Q2: Transcribe this speech.
A2: Here we go.
Q3: Separate each speech from the speech mixture. 
A3: 
音乐
Q4: Please generate a piece of singing voice. Text sequence is 小酒窝长睫毛AP是你最美的记号. Note sequence is C#4/Db4 | F#4/Gb4 | G#4/Ab4 | A#4/Bb4 F#4/Gb4 | F#4/Gb4 C#4/Db4 | C#4/Db4 | rest | C#4/Db4 | A#4/Bb4 | G#4/Ab4 | A#4/Bb4 | G#4/Ab4 | F4 | C#4/Db4. Note duration sequence is 0.407140 | 0.376190 | 0.242180 | 0.509550 0.183420 | 0.315400 0.235020 | 0.361660 | 0.223070 | 0.377270 | 0.340550 | 0.299620 | 0.344510 | 0.283770 | 0.323390 | 0.360340.
A4: 
音效
Q5: Generate an audio of a piano playing.
A5: 
Q6: Give me the description of this audio. 
A6: The audio is recording of a goat bleating nearby several times.
3D说话人
Q7: Generate a talking human portrait video.
A7:
此外,论文中还有一个多轮对话与上下文理解的例子:
AudioGPT语音模型在现有模型中具有不同的优势:
  • 相较于文本GPT:

ChatGPT、GPT4等语言模型侧重于自然语言处理领域,在多模态理解与合成上福利少了一些,AudioGPT则将重点放在了音频多模态的理解与生成。

  • 相较于Siri等检索模型:

与简单检索并以语音回复检索模型相比,AudioGPT强大的生成式对话,使得用户能够更加实时地获取和处理与内容相关的音频。

  • 相较于视觉任务GPT:

图像不存在像音频一样的语种分类,音频中存在不同语种:如中文、英文、法语等,AudioGPT还需要进行语种管理

技术原理


AudioGPT在收到用户请求时使用ChatGPT进行任务分析,根据语音基础模型中可用的功能描述选择模型,用选定的语音基础模型执行用户指令,并根据执行结果汇总响应。借助ChatGPT强大的语言能力和众多的语音基础模型,AudioGPT能够完成几乎所有语音领域的任务。
可以说,AudioGPT为走向语音通用人工智能开辟了一条新的道路。
具体来说,AudioGPT运行过程可以分成4个阶段:模态转化、任务分析、模型分配和回复生成。
截至目前,AudioGPT涵盖了语音识别、语音合成、语音翻译、语音增强、语音分离、音频字幕、音频生成、歌声合成等任务。
实验结果证明了AudioGPT在处理多模态信息和复杂AI任务方面的强大能力。
目前多模态的LLM层出不穷,Visual ChatGPT,HuggingGPT等模型吸引了越来越多的关注,然而如何测评多模态LLM模型也成了一大难点。
为了解决这一难点,研究人员为多模态LLM的性能评估设计了测评准则和测评过程。具体来说,AudioGPT提出从三个方面测评多模态LLM:
  • 一致性(Consistency):

度量AudioGPT是否正确的理解用户意图,并为之分配所需的模型

  • 稳定性(Capabilitity):

度量基础的语音模型在其特定任务上的性能表现

  • 鲁棒性(Robustness):

度量AudioGPT是否能正确的处理一些极端的例子

针对一致性,研究人员设计了一套基于人工测评的流程。如下图所示:
针对稳定性,AudioGPT调研了各语音基础模型在单任务领域的性能表现。
针对鲁棒性,研究人员从四个方面进行评估:
  • 多轮对话的稳定性:

多模态LLM应该具备处理多轮对话的能力并且能处理上下文关系
  • 不支持的任务:

目前多模态LLM并非万能的,当收到无法解决的请求时,多模态LLM也应该给予用户反馈
  • 错误处理:

多模态基础模型可能由于不同的原因而失败,例如不支持的参数或不支持的输入格式。在这种情况下,多模态 LLM需要向用户提供合理的反馈,以解释遇到的问题并提出潜在的解决方案
  • 上下文中断:

多模态LLM被期望处理不在逻辑序列中的查询。例如,用户可能会在查询序列中提交随机查询,但会继续执行具有更多任务的先前查询

网友热评

最后,项目刚刚开源,可以在Github和Huggingface体验。对于这个新工具的诞生,网友们很是兴奋,有人表示:
AudioGPT是大语言模型在音频处理领域的福利。
还有网友认为,五音不全的也可以借助AudioGPT唱歌了:
有网友称,期待在个人PC上也能用到这样的模型,将能够创造出丰富多样的音视频内容。
参考资料:
https://arxiv.org/abs/2304.12995




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
素食好主意【素食/白水果羅惹】能说会道的人统治世界Conagen和Natáur达成合作,生产可持续天然牛磺酸​ICML 2023 | Test Time Adaptation的理论理解与新的方法伊万卡全家惊艳亮相!从小学中文的11岁女儿真没长残:又白又美CVPR 2023 | 浙大提出全归一化流模型PyramidFlow:高分辨率缺陷异常定位新范式剑桥、腾讯AI Lab等提出大语言模型PandaGPT:一个模型统一六种模态《影之刃零》惊艳亮相PS发布会:武侠3A游戏乘风而上,玄幻3A遥遥无期?耶稣受难记炫到爆炸!HuggingGPT在线演示惊艳亮相,网友亲测图像生成绝了李克强的教头厉以宁是个大右派荐号丨你有过这样的体会吗?人家能说会道,而你鸦雀无声...扩散模型生成带汉字图像,一键输出表情包:OPPO等提出GlyphDraw「简报」迎接挑战​:CMU 表彰 23 位带来变革性影响的年轻校友;CMU 被评为 Fulbright 美国学生最佳培养者大模型工具学习系统性综述+开源工具平台,清华、人大、北邮、UIUC、NYU、CMU等40多位研究者联合发布新警服新装备,女子骑警中队惊艳亮相7B LLaMA模型接近ChatGPT 95%的能力!港科大提出全新对抗蒸馏框架LionCMU吃喝玩乐,享受CMU校园附近的多彩生活我在职场吃过最大的亏,就是少张能说会道的嘴前哨速览:Adobe的AI工具惊艳亮相(含视频),火狐成为AI新战场GPT-4推理提升1750%!普林斯顿清华姚班校友提出全新「思维树ToT」框架,让LLM反复思考乘一条大船,去一趟中国?惊艳亮相!三星堆又上新高效利用多级用户意图,港科大、北大等提出会话推荐新模型Atten-Mixer来了!占地23万英尺的纽约全新科学馆,这天惊艳亮相!ChatGPT自己会选模型了!浙大和微软提出:HuggingGPT墨尔本蒙巴狂欢节大游行正式上演,中国龙惊艳亮相惊艳亮相嵌入展,东芯打造存储应用新场景用Meta「分割一切」搞定一切关系,唱跳偷袭效果拔群!NTU等提出全新RAM模型阿里版 Copilot 惊艳亮相,AI 领域正式进入下半场火拼Apple的Vision Pro惊艳亮相,它有什么用处呢?| 经济学人社论(感想超级赞)北卡教堂山、CMU、莱斯大学放榜,CMU中国录取大缩水,中国录取数接近腰斩...老妈,自恋的婴幼儿GPT-4竟然有身体,167cm!清华、北师大重磅研究:ChatGPT能像人一样感知行动​华盛顿大学提出全新量化和微调方法,在DB-GPT上享受33B参数的LLM
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。