腾讯大模型技术斩获两项世界冠军,已落地微信搜索
允中 发自 凹非寺
量子位 | 公众号 QbitAI
腾讯人狠话不多,大模型技术刚拿下两项世界冠军!
最近,信息检索领域国际顶级学术会议WSDM(Web Search and Data Mining)宣布了WSDM CUP 2023竞赛成绩。
来自腾讯研究团队在无偏排序学习和互联网搜索预训练模型赛道上的两项任务中获得冠军。
ACM WSDM(Web Search and Data Mining) 会议是信息检索领域顶级会议之一,由SIGIR、SIGKDD、SIGMOD和SIGWEB四个专委会协调筹办,在互联网搜索、数据挖掘领域享有较高学术声誉。
WSDM Cup正是由WSDM会议举办。本届 WSDM Cup 共计400余支队伍参加,分别来自中国、美国、新加坡、日本、印度等国家的知名高校和公司。
大赛共设置三个赛道:
无偏排序学习和互联网搜索预训练模型赛道(Unbiased Learning to Rank and Pre-training for Web Search);
跨语言连续体的多语言信息检索赛道(Multilingual Information Retrieval Across a Continuum of Languages);
视觉问答挑战赛道(Visual Question Answering Challenge)。
此次,腾讯机器学习搜索团队在第一个赛道的两项子任务中(Pre-training for Web Search和Unbiased Learning to Rank)获得冠军。
目前两项成果代码和论文均已发布到GitHub上。
两项任务冠军
深度学习领域,数据标注的质量对于模型的效果有着较为显著的影响。
但是较高的标注数据成本一直是研究团队的阻碍之一,如何从技术上利用无标注的数据训练模型自然成为了成为学术界和工业界关注的热点。
本次比赛,针对基于搜索的预训练任务(Pre-training for Web Search),腾讯团队通过大模型训练、用户行为特征去噪等方法,在点击日志上进行基于搜索排序的模型预训练,进而使模型有效地应用到下游相关性排序的检索任务。
通过预训练、模型微调、集成学习等多方面的优化,在人工标注的相关性排序任务上取得了较大的领先优势。
而在另一个赛道——无偏排序学习任务(Unbiased Learning to Rank)中,团队通过深入挖掘点击日志信息,充分利用包括文档媒体类型、文档展示高度和点击后的滑屏次数等特征对文档相关性进行无偏估计,提出了一种能够集成多种偏置因素的多特征集成模型,有效地提升了搜索引擎中文档排序的效果。
据了解,夺冠团队的成果均基于腾讯混元AI大模型(下文简称“HunYuan”)和太极机器学习平台实现。
目前,通过联合微信搜索团队,两项技术已经在微信搜一搜的多个场景落地相关技术,并取得了显著的效果提升。
2022年4月,腾讯首次对外披露HunYuan大模型研发进展——
HunYuan集CV、NLP、多模态理解能力于一体,先后在MSR-VTT、MSVD等五大权威数据集榜单中登顶,实现跨模态领域的大满贯。
2022年5月,更是在国际公认的CLUE三个榜单同时登顶,一举打破三项纪录。
现在,HunYuan又迎来全新进展,推出国内首个低成本、可落地的NLP万亿大模型,并再次登顶CLUE。
腾讯太极机器学习平台是集模型训练和在线推理于一身的高性能机器学习平台,具备万亿参数模型的训练和推理能力,为AI大模型预训练推理和应用落地提供了完整的端到端工程能力支撑,一站式解决算法工程师在 AI 应用过程中特征处理、模型训练、模型服务等工程问题。
腾讯长期致力于前沿搜索技术的研究,通过改进搜索算法,提升用户搜索体验,相关技术团队在检索预训练、大模型训练、搜索排序任务目标函数设计等方面的具有丰富的实践经验,研究成果多次在国际竞赛和学术会议中取得领先成绩,并广泛应用于微信搜索、腾讯广告、游戏等多个业务场景。
GitHub链接:
https://github.com/lixsh6/tencent_wsdm_cup2023
论文链接:
https://arxiv.org/pdf/2302.13756.pdf
https://arxiv.org/pdf/2302.13498.pdf
*本文系量子位获授权刊载,观点仅为作者所有。
— 完 —
量子位 QbitAI
վ'ᴗ' ի 追踪AI技术和产品新动态
微信扫码关注该文公众号作者