Redian新闻
>
清华唐杰新作WebGLM:参数100亿、主打联网搜索,性能超OpenAI WebGPT

清华唐杰新作WebGLM:参数100亿、主打联网搜索,性能超OpenAI WebGPT

公众号新闻
丰色 发自 凹非寺
量子位 | 公众号 QbitAI

清华唐杰团队的新作来了:

WebGLM,一个参数100亿的联网问答聊天机器人(论文入选KDD2023)

你可以问它任何问题,然后它将列举出网上(例如维基百科、相关官网)相关的文章链接,整理出答案。

比如:

ChatGPT的核心技术是什么?

或者:

谁提出的Music Transformer?它的原理是什么?

再或者:

原神3.5版本怎么样?

没有高薪工作,怎么在一线城市生活?(手动狗头)

……

它都能给出有理有据的回答。

据介绍,在性能对比测试中,WebGLM的水平已经高于OpenAI 135亿参数的WebGPT,在人类评估中,甚至与1750亿参数的模型不相上下。

那么,它是如何训练的?

可以上网的清华系WebGLM

据介绍,WebGLM的目标是通过Web搜索和检索功能,增强预训练大语言模型,同时可以进行高效的实际部署。

为此,作者基于三种策略进行开发。

首先是大模型增强检索器

它主要是用于增强模型相关网络内容的检索能力,在给定查询的情况下查找相关引用,以便后面更好地准确回答问题。

它有两个阶段:粗粒度web搜索和细粒度LLM增强密集检索。

其次是自举生成器

它利用GLM(比如清华之前发布的双语开源预训练模型GLM-130B的能力为问题生成回复,提供详细的答案。

利用该生成器,作者得到WebGLM-QA——一个LLM自举引用和长程的QA数据集。

它通过上下文学习等策略进行清洗和过滤,最终包括45k的高质量过滤样本和83k的噪声样本。

WebGLM的backbone就是一个在该数据集上训练的GLM模型。

最后是基于人类偏好的打分器

它通过优先考虑人类偏好而非昂贵的专家反馈来评估生成回复的质量,确保系统能够产生有用和吸引人的内容。

以上三大组件最终按顺序形成WebGLM的pipeline:

可以看到,正好三个模块,对应前面介绍的三部分,其中:

LLM增强检索器会将前五个最相关的页面作为参考源,让自举生成器生成多个答案,最终打分器选出最可能符合人类偏好的那一个作为最终输出。

性能超OpenAI WebGPT

除了WebGLM本身,唐杰团队此次还提出了一个网络增强问答系统的评估标准,评估对象既包括参考文献,也包括最终回答。

其中前者衡量相关性、信息密度、真实性(无事实错误)、毒性(不含暴力色情等信息)和社会偏见程度这5个维度;后者则衡量流畅度、正确性、引用准确性、客观性和冗余程度。

他们用WebGPT(来自OpenAI,基于GPT-3进行微调)演示网站提供的272个问题进行对比评估,并招募了15个学历为硕士的志愿者打分。

最终结果如下:

(“Rel.”、“ Den.”……分别对应上面说的10个指标。)

可以看到,尽管WebGLM的搜索结果略逊于WebGPT-175B,但远好于Perplexity.ai和WebGPT-13B(左边的参考文献评估)

值得一提的是,WebGLM检索过程只使用了一些传统的基于单词的算法和两个累计参数量不超过300M的Contriever。

此外,WebGLM在计算性能和时间消耗方面也明显优于WebGPT-13B、并与175B不相上下。

而在最终结果方面,WebGLM在流畅度、真实性和冗余度方面均获得最高得分,正确性指标上则接近WebGPT-175B,远高于Perplexity.ai和WebGPT-13B。

作者表示,这表明WebGLM可以以更低的成本获得更高的性能。

部署与训练

WebGLM发布即开源

要想部署它,需要从SerpAPI官网获得一个密钥,用于在搜索过程中获取搜索结果。

检索器的权重可从清华云上下载。

运行该模型的方式有两种:一是命令行界面,二是Web服务形式,并且包含WebGLM-2B和WebGLM-10B两种可选模型。

你也可以自己训练WebGLM,官方已提供好了生成器和检索器的训练数据供下载~

论文地址:
https://arxiv.org/abs//2306.07906

GitHub主页:
https://github.com/THUDM/WebGLM

「AIGC+垂直领域社群」

招募中!

欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!

请备注您想加入的垂直领域「教育」或「电商零售」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
将蛋白质语言模型扩展到千亿参数,深度解读百图生科、清华xTrimoPGLM模型GPT-4参数最新爆料!1.76万亿参数,8个2200亿MoE模型,PyTorch创始人深信不疑GPT-4,Llama2,ChatGLM2,PaLM2共聚一堂 | LLM Day @KDD 2023高盛实习第一天打开Google搜索,被老板痛批不专业ChatGPT 又断网了!OpenAI 暂时下线 ChatGPT 搜索功能,只因绕过付费墙?清华第二代60亿参数ChatGLM2开源!中文榜居首,碾压GPT-4,推理提速42%AVS+DVB超高清标准国际合作Workshop成功举办懂3D的语言模型来了!UCLA、上交、MIT等联合提出3D-LLM:性能大涨9%GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会国产130亿参数大模型免费商用!性能超Llama2-13B,支持8k上下文,哈工大已用上今天,清华唐杰、上交卢策吾等AI学者获得第五届科学探索奖九剑一魂 - 第24回 汉胡同源 九剑一魂(二)清华人工智能研究院「基础模型研究中心」成立!唐杰任研究中心主任,孙茂松任首席科学家都快想退休了,才发现/觉得我入错行了!击败ChatGPT?OpenChat霸榜斯坦福AlpacaEval开源榜首,性能高达105.7%科学探索奖名单揭晓:清华唐杰北大数院丁剑在列,还有三体电视剧“丁仪”热议原型清华ACL2023 | WebCPM:首个联网支持中文问答开源模型北大、西湖大学等开源「裁判大模型」PandaLM:三行代码全自动评估LLM,准确率达ChatGPT的94%LLM底座模型:LLaMA、Palm、GLM、BLOOM、GPT结构对比85亿、10亿、9亿…雪松被强制执行!张劲被刑事控制后,这些消费也不得实施Windows Copilot登场,ChatGPT默认用必应搜索,微软联手OpenAI的大宇宙来了做了抖音最新受害者最强API调用模型来了!基于LLaMA微调,性能超过GPT-4可商用多语言聊天LLM开源,性能直逼GPT-4UC伯克利LLM排行榜首次重磅更新!GPT-4稳居榜首,全新330亿参数「小羊驼」位列开源第一《国画牡丹》&《问风》华裔数学家用GPT-4解数学难题;清华唐杰团队发布WebGLM;全国人大法工委回应“AI换脸”现象丨AIGC大事日报性能超越GPT-4!谷歌推出大语言模型PaLM 2,全面升级Bard反击ChatGPT|环球科学要闻ChatGPT联网搜索功能紧急下线!用户:钱都付了就给我看这个?OpenAI对ChatGPT进行更新;百川智能正式推出70亿参数开源中英文大模型|AIGC周观察第六期空巢日记摘要2005清华ACL 2023最新长文 | WebCPM:首个联网支持中文问答开源模型谷歌发大模型PaLM 2对抗GPT-4,生成式AI融入谷歌搜索,急切反击背后,搜索摇钱树要倒?性能超越Llama2-13B,可免费商用,姚星创业公司开源百亿参数通用大模型11个LLM一起上,性能爆炸提升!AI2联合USC开源LLM-Blender集成学习框架:先排序再融合|ACL 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。