Redian新闻
>
单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖

公众号新闻
明敏 金磊 发自 凹非寺
量子位 | 公众号 QbitAI

就在刚刚,UC伯克利博士、新加坡国立大学校长青年教授尤洋发布最新消息——

斩获AAAI 2023杰出论文奖(Distinguished Paper)

研究成果一次性将模型的训练速度,提升72倍

甚至网友在拜读完论文之后发出感慨:

从12小时到10分钟,嫩牛(你们牛)啊!

尤洋博士曾在求学期间刷新ImageNet以及BERT训练速度的世界纪录。

他所设计的算法也是广泛应用于谷歌,微软,英特尔,英伟达等科技巨头。

现如今,已经回国创业潞晨科技一年半的他,带着团队又做出了怎样的算法,斩获AI顶会如此殊荣呢?

训练时长从12小时到10分钟

在这项研究中,尤洋团队提出了一种优化策略CowClip,能够加速CTR预测模型的大批量训练。

CTR(click-through rate)预测模型是个性化推荐场景下的一种常用算法。

它通常需要学习用户的反馈(点击、收藏、购买等),而每天在线产生的数据量又是空前庞大的。

因此,加快CTR预估模型的训练速度至关重要。

一般来说,提高训练速度会使用批量训练,不过批量太大会导致模型的准确度有所降低。

通过数学分析,团队证明了在扩大批次时,对于不常见特征的学习率(learning rate for infrequent features)不应该进行缩放。

通过他们提出的CowClip,可以简单有效扩展批大小。

通过在4个CTR预估模型和2个数据集上进行测试,团队成功将原始批大小扩大了128倍,并没有造成精度损失。

特别是在DeepFM上,通过将批大小从1K扩大到128K,CowClip实现了AUC超过0.1%的改进。

并在单块V100 GPU上,将训练时长从原本的12小时,缩短至只需10分钟,训练提速72倍

目前,项目代码已开源。团队表示该算法也适用于NLP等任务。

团队介绍

本文的一作是尤洋的博士生郑奘巍,本科毕业于南京大学计算机精英班,博士毕业于新加坡国立大学。

其研究方向包括机器学习、计算机视觉和高性能计算。

尤洋在这项研究担任通讯作者,了解更多个人信息可戳【此处】

参考链接:

[1] https://weibo.com/2082348875/MrJb5kHPt#comment
[2] https://arxiv.org/abs/2204.06240
[3]https://github.com/bytedance/LargeBatchCTR

「人工智能」、「智能汽车」微信社群邀你加入!

欢迎关注人工智能、智能汽车的小伙伴们加入交流群,与AI从业者交流、切磋,不错过最新行业发展&技术进展。

PS. 加好友请务必备注您的姓名-公司-职位噢 ~


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
OFA-Chinese:中文多模态统一预训练模型7 Papers & Radios | ICLR 2023杰出论文奖;微软GPT-4完整测评开源方案复现ChatGPT流程!1.62GB显存即可体验,单机训练提速7.73倍联想扬天 V14 / V15 2023 锐龙版开启预售,2999 元College Essay 系列 (二十七):Hardly Essay (3) 普林 WL文书接种疫苗和感染一次,哪个防护效果好?科学家最新成果AAAI 2023 | 基于T5的两阶段的多任务Text-to-SQL预训练模型MIGA阿里「杀手锏」级语音识别模型来了!推理效率较传统模型提升10倍,已开源北大等国内机构获杰出学生论文,AAAI 2023各大奖项出炉潞晨科技尤洋:中小企业同样追求大模型,但最先进AI训练成本还是太高 | MEET 20239点1氪:微软称AI版Office不会取代用户;上海迪士尼乐园年卡停售;苹果获得可折叠手机新专利,掉落时可自动折叠30页论文!俞士纶团队新作:AIGC全面调查,从GAN到ChatGPT发展史祝贺!东北大学团队文章入选“中国高被引论文奖”!虹吸不需要大气压PyTorch 2.0正式版发布!一行代码提速2倍,100%向后兼容46亿加元贿选没干扰联邦大选7 Papers | AAAI 2023杰出论文奖;AI生成文本检测方法综述7 Papers | 英伟达64个A100训练StyleGAN-T;9类生成式AI模型综述大规模语言训练模型应用,如何让文档问答系统快速拥有“高智商”?锻炼增加骨密度?重磅!2022年度中国科学十大进展公布,曹云龙/谢晓亮/王祥喜团队新冠病毒研究成果入选北大获奖,清华、人大等提名,ICLR 2023杰出论文奖出炉谷歌砸了4亿刀的Anthrophic:AI模型训练计算量5年增加1000倍!最新综述:基于语言模型提示学习的推理登顶对话式语义解析国际权威榜单SParC和CoSQL,全新多轮对话表格知识预训练模型STAR解读​欧洲能源转型提速import 一个“太极”库,让 Python 代码提速 100 倍!中信证券再拿一块公募牌照?历时2年,资管子公司获批!券商资管公募化转型提速新加坡国立大学计算机系校长青年教授尤洋:低成本训练AI大模型的挑战与实践|GTIC 2023演讲预告GAN强势归来?英伟达耗费64个A100训练StyleGAN-T,优于扩散模型零门槛复现ChatGPT:预训练模型数据集直接用,包含完整RLHF流程,在线可体验哈工大讯飞联合实验室发布图文多模态预训练模型VLEChatGPT付费就变快!实测提速超2倍、正确率更高,定价每月20刀祸不单行ICLR 2023 | 基于视觉语言预训练模型的医疗图像小样本学习及零样本推理性能研究
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。