Redian新闻
>
谷歌的野心:通用语音识别大模型已经支持100+语言

谷歌的野心:通用语音识别大模型已经支持100+语言

公众号新闻
选自googleblog
机器之心编译
编辑:小舟、杜伟
谷歌表示,推出通用语音模型(USM)是其未来支持 1000 种语言的关键一步。

去年 11 月,谷歌宣布推出「1000 种语言计划」,旨在构建一个机器学习 (ML) 模型,支持世界上使用最广泛的 1000 种语言,从而为全球数十亿人带来更大的包容性。然而,其中一些语言的使用人数不到两千万,因此核心挑战是如何支持使用人数相对较少或可用数据有限的语言。

现在,谷歌公开了更多有关通用语音模型 (USM) 的信息,这是支持 1000 种语言的第一步。USM 包含一系列 SOTA 语音模型,带有 20 亿参数,经过 1200 万小时的语音和 280 亿个文本句子的训练,涵盖 300 多种语言。USM 不仅可以对英语和普通话等广泛使用的语言执行自动语音识别(ASR),还可以对阿姆哈拉语、宿雾语、阿萨姆语、阿塞拜疆语等使用人数很少的语言执行自动语音识别。

谷歌证明了利用大型未标记的多语言数据集来预训练模型的编码器,并用较小的标记数据集进行微调,能够让模型识别使用人数非常少的语言。此外,谷歌的模型训练过程可以有效地适应新的语言和数据。

USM 支持的语言示例。

当前的挑战

为了实现「1000 种语言计划」,谷歌需要解决 ASR 中的两个重大挑战。

首先,传统的监督学习方法缺乏可扩展性。将语音技术扩展到多种语言的一个基本挑战是获得足够的数据来训练高质量的模型。使用传统方法,音频数据需要手动标记,这既费时又昂贵;或者从已有数据中收集可用数据,但这对于使用人数很少的语言来说很难找到。

相比之下,自监督学习可以利用纯音频数据,这些数据包含大量不同的语言,使得自监督学习成为实现跨数百种语言扩展的好方法。

另一个挑战是,在扩大语言覆盖范围和提升模型质量的同时,模型必须以计算高效的方式进行改进。这就要求学习算法具有灵活性、高效性和泛化性。更具体地说,算法需要能够使用来自各种来源的大量数据,在不需要完全重新训练的情况下启用模型更新,并推广到新的语言和用例。

解决方法:带有微调的自监督学习

USM 使用标准的编码器 - 解码器架构,其中解码器可以是 CTC、RNN-T 或 LAS。对于编码器,USM 使用 Conformer 或卷积增强型 transformer。Conformer 的关键组件是 Conformer 块,它由注意力模块、前馈模块和卷积模块组成。它将语音信号的 log-mel 声谱图作为输入并执行卷积下采样,之后应用一系列 Conformer 块和投影层以获得最终嵌入。

USM 的训练流程如下图所示:

  • 第一步先从对涵盖数百种语言的语音音频进行自监督学习开始。
  • 第二步是可选步骤,谷歌通过使用文本数据进行额外的预训练来提高模型的质量和语言覆盖率。是否采用这个步骤取决文本数据是否可用。
  • 训练 pipeline 的最后一步是使用少量有监督数据微调下游任务(例如,ASR 或自动语音翻译)。

USM 的整体训练流程。

第一步中谷歌使用了 BEST-RQ,因为它已经在多语言任务上展示了 SOTA 结果,并且在使用大量无监督音频数据时被证明是有效的。

在第二步中,谷歌使用了多目标有监督预训练来整合来自额外文本数据的知识。USM 模型引入了一个额外的编码器模块将文本作为输入,并引入了额外的层来组合语音编码器和文本编码器的输出,然后再在未标记语音、标记语音和文本数据上联合训练模型。

凭借在预训练期间获得的知识,最后一步 USM 模型仅需来自下游任务的少量有监督数据即可获得良好的模型性能。

主要结果展示

YouTube Captions 测试集上不同语言的性能

谷歌的编码器通过预训练整合了 300 多种语言,并通过在 YouTube Caption 多语言语音数据上微调证明了该预训练编码器的有效性。监督式 YouTube 数据包括 73 种语言,每种语言平均具有不超过 3000 小时的数据。尽管监督数据有限,USM 仍在 73 种语言中平均实现了低于 30% 的词错率(WER,越低越好),这是以往从未实现的里程碑。对于 en-US,与当前谷歌内部 SOTA 模型相比,USM 的 WER 相对降低了 6%。

谷歌还与 OpenAI 近期发布的大模型 Whisper (large-v2) 进行了比较,后者使用超过 400k 小时的标注数据进行训练。为了便于比较,谷歌仅使用 Whisper 可以成功解码且 WER 低于 40% 的 18 种语言。结果如下图所示,USM 的平均 WER 比 Whisper 低了 32.7%

对于下游 ASR 任务的泛化性能

对于公开可用的数据集,USM 在 CORAAL(非裔美国人土语)、SpeechStew(en-US)和 FLEURS(102 种语言)数据集上显示出了较 Whisper 更低的 WER。USM 在接受和没有接受域内数据训练的情况下都实现了更低的 WER。具体结果如下图所示。

自动语音翻译(AST)性能

对于语音翻译,谷歌在 CoVoST 数据集上进行微调。谷歌的模型(包括通过 pipeline 第二阶段的文本)在有限监督数据下实现了 SOTA 性能。此外,为了评估模型性能的广度,谷歌根据资源可利用性将 CoVoST 数据集中的语言分为了高(high)、中(medium)和低(low),并计算相应的 BLEU 分数(越高越好)。

如下图所示,USM 在所有语言细分中超越了 Whisper

未来将支持 1000 种语言

USM 的开发是实现「谷歌组织全球信息并使人人皆可访问」使命的关键努力。谷歌相信,USM 的基础模型架构和训练 pipeline 奠定了将语音建模扩展到未来 1000 种语言的根基。

更多细节请参阅相关论文:https://arxiv.org/abs/2303.01037v2

原文链接:https://ai.googleblog.com/2023/03/universal-speech-model-usm-state-of-art.html


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
EeSen、FSMN、CLDNN、BERT、Transformer-XL…你都掌握了吗?一文总结语音识别必备经典模型(二)岸田文雄的野望和野心谷歌模型支持手机上跑Stable Diffusion;普华永道砸10亿美元投资AIGC;天翼云将推出大模型丨AIGC大事日报从315被打假到10亿销售额,戴可思撑不起张晓军的野心?清华系千亿基座对话模型ChatGLM开启内测,单卡版模型已全面开源45岁亿万富豪重回18!?每年砸1300万,雇30个医生:我的野心不止年轻走路首个超大规模GAN模型!生成速度比Diffusion快20+倍,0.13秒出图,最高支持1600万像素NNLM、RNNLM、LSTM-RNNLM、Bi-lstm、GPT-1…你都掌握了吗?一文总结语音识别必备经典模型(一)自遣利润下降超60%,语音识别技术难成科大讯飞护城河李志飞劝各位冷静点:通用大模型创业不一定适合所有人,包括大佬们Attention-lvcsr、Residual LSTM…你都掌握了吗?一文总结语音识别必备经典模型(三)上手新款Mac mini后,我感觉苹果的野心可能有戏。原达摩院大模型 M6 带头人杨红霞加入字节,语言生成大模型再迎新玩家18.3 万美元offer到手!ChatGPT 通过谷歌 L3 面试:留给谷歌的时间不多了再胜OpenAI!谷歌发布20亿参数通用模型,100多种语言自动识别翻译财务管理请查收使用OpenAI的Whisper进行语音识别的攻略「终结者」走入现实?微软的野心:用ChatGPT控制机器人!我,ChatGPT,站在谷歌的肩膀上,让谷歌紧张MIUI 14 第一批正式版机型已全量推送,共支持11款机型45岁硅谷亿万富豪重回18岁?每年花1300万雇30个医生:我的野心不止年轻建筑界的“氪金玩家”!花了40亿打造的南京佛顶山,美到让人窒息!网友:已经无法用语言来形容了!谷歌的又一波反击!开放大语言模型PaLM API比SAM分割一切更全能!华人团队提出SEEM:通用分割新模型GPT-4刷屏,这家中国AI企业多模态大模型已落地应用多年,新版本内测了(可申请)教育部《信息技术产品国家通用语言文字使用管理规定》2023年3月1日起施行击败OpenAI!谷歌公布20亿参数通用语音模型,支持100+语种检测翻译45岁硅谷亿万富豪重回18岁!?55亿卖掉公司,每年花1300万,雇30个医生,用1年让自己“返老还童”:我的野心不止年轻东亚文明自古以来的落后促成大一统一加Ace 2支持100W超级闪充,全球首发OPPO首颗电源管理芯片进军外卖、线上开超市,抖音的野心没有边界吗?恢复—12--正常走路完成Pre-A+轮融资,语言大模型企业「澜舟科技」推出孟子MChat可控大模型|36氪首发
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。