阿里开源语音处理模型 FunAudioLLM :50 种语言无缝翻译,还能识别语音情绪
作者 | 赵明华
阿里巴巴通义实验室近日发布并开源了 FunAudioLLM,这是一个旨在增强人与大型语言模型(LLMs)之间自然语音交互的框架,代表了语音处理领域的最新进展。
这一框架的核心是两个创新模型:SenseVoice 和 CosyVoice。这两个模型不仅在多语言语音识别、情感识别、音频事件检测和自然语音生成方面表现出色,还展示了极高的成熟度和广泛的应用潜力。
● 多语言识别:采用超过 40 万小时的数据训练,支持超过 50 种语言,在中文和粤语上的识别准确度提升超过 50%。
● 情感辨识:具备出色的情感识别能力,在测试数据上达到或超过当前最佳情感识别模型的效果。
● 声音事件检测:能够识别多种情绪和交互事件,如音乐、掌声、笑声、哭声等。
● 模型架构:包括自动语音识别(ASR)、语言识别(LID)、情感识别(SER)以及音频事件检测(AED),能够适应不同应用场景。
● 多语言合成:采用了总共超 15 万小时的数据训练,支持中英日粤韩 5 种语言的合成,合成效果显著优于传统语音合成模型。
● 极速音色模拟:仅需要 3 至 10 秒的原始音频,即可生成模拟音色,包含韵律和情感等细节,甚至能够实现跨语言的语音生成。
● 细粒度控制:支持通过富文本或自然语言形式,对生成语音的情感和韵律进行细粒度控制,大大提升了生成语音在情感表现力上的细腻程度。
● 模型架构:包含回归变换器,用于生成输入文本的语音标记;基于 ODE 的扩散模型(流匹配),用于从生成的语音标记重建梅尔频谱;以及基于 HiFTNet 的声码器,用于合成波形。
FunAudioLLM 不仅在技术上有所突破,其应用前景也十分广泛。基于 SenseVoice 和 CosyVoice 模型,该项目可以支持多种人机交互应用场景,例如音色情感生成的多语言语音翻译、情绪语音对话、互动播客和有声读物等。
通过融合 SenseVoice、大语言模型(LLM)和 CosyVoice,FunAudioLLM 能够开发出一款情感语音聊天应用。
通过将 SenseVoice、基于 LLM 的实时知识多代理系统和 CosyVoice 整合,FunAudioLLM 可以创造一个互动式播客电台。
结合 LLM 的文本分析能力和 CosyVoice 的语音生成技术,FunAudioLLM 能够制作表现力更强的有声读物。
目前,与 SenseVoice 和 CosyVoice 相关的模型已在 ModelScope 和 Huggingface 上开源,同时在 GitHub 上发布了相应的训练、推理和微调代码。
参考链接:
https://mp.weixin.qq.com/s/oO5Gy-MwDNVl_j5Zt9vkyghttps://fun-audio-llm.github.io/
论文链接:
https://fun-audio-llm.github.io/pdf/FunAudioLLM.pdf
AIGC技术正以惊人的速度重塑着创新的边界,InfoQ 首期《大模型领航者AIGC实践案例集锦》电子书,深度对话30位国内顶尖大模型专家,洞悉大模型技术前沿与未来趋势,精选10余个行业一线实践案例,全面展示大模型在多个垂直行业的应用成果,同时,揭秘全球热门大模型效果,为创业者、开发者提供决策支持和选型参考。关注「AI前线」,回复「领航者」免费获取电子书。
在主题演讲环节,我们已经邀请到了「蔚来创始人 李斌」,分享基于蔚来汽车 10 年来创新创业过程中的思考和实践,聚焦 SmartEV 和 AI 结合的关键问题和解决之道。大会火热报名中,7 月 31 日前可以享受 9 折优惠,单张门票节省 480 元(原价 4800 元),详情可联系票务经理 13269078023 咨询。
今日荐文
微信扫码关注该文公众号作者