Redian新闻
>
再胜OpenAI!谷歌发布20亿参数通用模型,100多种语言自动识别翻译

再胜OpenAI!谷歌发布20亿参数通用模型,100多种语言自动识别翻译

公众号新闻



  新智元报道  

编辑:编辑部
【新智元导读】近日,谷歌正式发布了支持100多个语种的20亿参数通用语音模型——USM,正式对标OpenAI的开源Whisper。

上周,OpenAI发布的ChatGPT API和Whisper API,刚刚引动了一场开发者的狂欢。

3月6日,谷歌就推出了一款对标的模型——USM。不仅可以支持100多种语言,而且参数量也达到了20个亿。

当然了,模型依然没有对外开放,「这很谷歌」!

简单来说,USM模型在涵盖1200万小时语音、280亿个句子和300种不同语言的无标注数据集中进行了预训练,并在较小的标注训练集中进行了微调。

谷歌的研究人员表示,虽然用于微调的标注训练集仅有Whisper的1/7,但USM却有着与其相当甚至更好的性能,并且还能够有效地适应新的语言和数据。

论文地址:https://arxiv.org/abs/2303.01037

结果显示,USM不仅在多语种自动语音识别和语音-文本翻译任务评测中实现了SOTA,而且还可以实际用在YouTube的字幕生成上。

目前,支持自动检测和翻译的语种包括,主流的英语、汉语,以及阿萨姆语这类的小语种。

最重要的是,还能用于谷歌在去年IO大会展示的未来AR眼镜的实时翻译。

Jeff Dean亲自官宣:让AI支持1000种语言


当微软和谷歌就谁家拥有更好的AI聊天机器人争论不休时,要知道,大型语言模型的用途可不仅于此。

去年11月,谷歌最先宣布了新项目「开发一种支持全球1000种最常用语言的人工智能语言模型」。

同年,Meta也发布了一个名为「No Language Left Behind」模型,并称可以翻译200多种语言,旨在打造「通用翻译器」。

而最新模型的发布,谷歌将其描述为通向目标的「关键一步」。

在打造语言模型上,可谓群雄逐鹿。

据传言,谷歌计划在今年的年度 I/O 大会上展示20多款由人工智能驱动的产品。

当前,自动语音识别面临许多挑战:

  • 传统的监督学习方法缺乏可扩展性
在传统的方法中,音频数据需要费时又费钱的手动标记,或者从有预先存在的转录的来源中收集,而对于缺乏广泛代表性的语言来说,这很难找到。
  • 扩大语言覆盖面和质量的同时,模型必须以高效的计算方式进行改进
这就要求算法能够使用来自不同来源的大量数据,在不需要完全重新训练的情况下实现模型的更新,并且能够推广到新的语言和使用案例。

微调自监督学习


据论文介绍,USM的训练采用了三种数据库:未配对的音频数据集、未配对的文本数据集、配对的ASR语料库。
  • 未配对的音频数据集
包括YT-NTL-U(超1200万小时YouTube无标签音频数据)和Pub-U(超429,000小时的51种语言的演讲内容)
  • 未配对的文本数据集
Web-NTL(超1140种不同语言的280亿个句子)
  • 配对的ASR语料库
YT-SUP +和 Pub-S语料库(超10,000小时的音频内容和匹配文本)
USM使用标准的编码器-解码器结构,其中解码器可以是CTC、RNN-T或LAS。
对于编码器,USM使用了Conformor,或卷积增强Transformer。
训练过程共分为三个阶段。
在初始阶段,使用BEST-RQ(基于BERT的随机投影量化器的语音预训练)进行无监督的预训练。目标是为了优化RQ。
在下一阶段,进一步训练语音表征学习模型。
使用MOST(多目标监督预训练)来整合来自其他文本数据的信息。
该模型引入了一个额外的编码器模块,以文本作为输入,并引入了额外的层来组合语音编码器和文本编码器的输出,并在未标记的语音、标记的语音和文本数据上联合训练模型。
最后一步便是,对ASR(自动语音识别)和AST(自动语音翻译)任务进行微调,经过预训练的USM模型只需少量监督数据就可以取得很好的性能。

USM整体训练流程
USM的性能如何,谷歌对其在YouTube字幕、下游ASR任务的推广、以及自动语音翻译上进行了测试。
YouTube多语言字幕上的表现
受监督的YouTube数据包括73种语言,每种语言的数据时长平均不到3000个小时。尽管监督数据有限,但模型在73种语言中实现了平均不到30%的单词错误率(WER),这比美国内部最先进的模型相比还要低。
此外,谷歌与超40万小时标注数据训练出的Whisper模型 (big-v2) 进行了比较。
Whisper能解码的18种语言中,其解码错误率低于40%,而USM平均错误率仅为32.7%。
对下游ASR任务的推广
在公开的数据集上,与Whisper相比,USM在CORAAL(非裔美国人的方言英语)、SpeechStew(英文-美国)和FLEURS(102种语言)上显示出更低的WER,不论是否有域内训练数据。
两种模型在FLEURS上的差异尤为明显。
在AST任务上的表现
在CoVoST数据集上对USM进行微调。
将数据集中的语言按资源可用性分为高、中、低三类,在每一类上计算BLEU分数(越高越好),USM在每一类中的表现的优于Whisper。
研究发现,BEST-RQ预训练是将语音表征学习扩展到大数据集的一种有效方法。
当与MOST中的文本注入相结合时,它提高了下游语音任务的质量,在FLEURS和CoVoST 2基准上实现了最好的性能。
通过训练轻量级剩余适配器模块,MOST表示能够快速适应新的域。而这些剩余适配器模块只增加2%的参数。
谷歌称,目前,USM支持100多种语言,到未来将扩展到1000多种语言。有了这项技术,或许对于每个人来讲走到世界各地稳妥了。
甚至,未来实时翻译谷歌AR眼镜产品将会吸引众多粉丝。
不过,现在这项技术的应用还是有很长的一段路要走。
毕竟在面向世界的IO大会演讲中,谷歌还把阿拉伯文写反了,引来众多网友围观。
参考资料:
https://ai.googleblog.com/2023/03/universal-speech-model-usm-state-of-art.html?m=1
https://www.theverge.com/2023/3/6/23627788/google-1000-language-ai-universal-speech-model
https://analyticsindiamag.com/google-usm-shatters-language-barriers-with-multilingual-speech-recognition-model/



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
老少团干部AI绘画新思路:国产开源50亿参数新模型,合成可控性、质量实现飞跃5620亿参数,最大多模态模型控制机器人,谷歌把具身智能玩出新高度击败OpenAI!谷歌公布20亿参数通用语音模型,支持100+语种检测翻译英国一街道居民能说70多种语言!这就是一个小联合国啊刚刚!商汤版ChatGPT「商量」来了!开放API,基于千亿参数大模型,体验实录在此走资派邓小平丑陋的两面派文化谷歌报复性砸出5620亿参数大模型!比ChatGPT更恐怖,机器人都能用,学术圈已刷屏彭博推出BloombergGPT——专为金融行业从头打造的500亿参数大语言模型GPT-3剪枝算法来了!无需微调,1750亿参数模型剪50%还提点斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现ChatGPT 又遇劲敌!谷歌发布史上最大 AI 模型 PaLM-E:5620 亿参数,无需特殊训练即可操纵机器人美国档案---金雅梅(金韵梅)商汤版ChatGPT「商量」来了!开放API,基于千亿参数大模型,体验实录在此代季峰教授:超大规模视觉通用模型最新研究成果分享王小川官宣大模型创业!5000万美元启动资金,年中发布首个产品,目前在训500亿参数版本国产乾元2大模型来了:可编程金融文生图,120亿参数,超对称联手复旦出品谷歌、OpenAI 都白干,开源才是终极赢家!谷歌内部文件泄露:欲借开源打败 OpenAI王兴投资王慧文 ChatGPT 项目;谷歌发布全球最大视觉语言模型 PaLM-E;自如考虑赴港上市 | 极客早知道三十五年了,我的体重又回到了原点!谷歌的野心:通用语音识别大模型已经支持100+语言重磅!谷歌发布《深度学习调优手册》!Hinton转发点赞!CV开启大模型时代!谷歌发布史上最大ViT:220亿参数,视觉感知力直逼人类能翻译35种语言的黑科技词典笔,仅售200多!1秒查词,真人发音!又一国产大模型来了,超对称联合复旦大学发布 120 亿参数语言模型 BBT-2, 已开源60岁,美国泥鳅式养老300美元复刻ChatGPT九成功力,GPT-4亲自监考,130亿参数开源模型「小羊驼」来了加州仇恨犯罪激增 反仇恨匿名热线开通 支持200多种语言DriveGPT自动驾驶大模型中国玩家首发!1200亿参数,毫末智行出品终结者最强大脑!谷歌发布史上最大「通才」模型PaLM-E,5620亿参数,看图说话还能操控机器人最大的ViT来了!谷歌提出ViT-22B:视觉Transformer扩展到220亿参数Transformer再胜Diffusion!谷歌发布新一代文本-图像生成模型Muse:生成效率提升十倍大羊驼LLaMa竞品来了:AI画图最火公司开源语言模型,最小30亿参数没有百亿参数的大模型,不敢奢谈ChatGPTMeta版ChatGPT来了?小扎、LeCun官宣650亿参数SOTA大语言模型LLaMA
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。