Redian新闻
>
用暂停token重新训练大模型,AI学会三思而后行

用暂停token重新训练大模型,AI学会三思而后行

公众号新闻
梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

让ChatGPT给出答案之前多想想步骤,就能提高准确率。

那么能不能省去提示词,直接把这种能力内化在大模型里呢?

CMU与谷歌团队的新研究,在训练大模型时加入暂停token来实现这一点。

实验中,8项评测成绩提升,其中SQuAD的EM得分提高18%,CommonSenseQA提高8%,GSM8k中的推理任务也提高1%。

研究者Jack Hack表示,自己不久前就提出类似假设,很高兴看到它被验证。

英伟达工程师Aaron Erickson表示,是不是和人类说话时加入“嗯嗯啊啊”是一个道理?

预训练微调都加入暂停token

整个研究基于一个简单的想法:

在输入序列后面追加一系列(暂停token),从而延迟模型输出下一个token。

这可以给模型额外的计算时间来处理更复杂的输入。

作者不仅在下游任务微调时引入,还在预训练时就随机在序列中插入,让模型在两阶段都学习如何利用这种计算延迟。

预训练阶段,在语料库中随机插入一定比例的暂停token到输入序列,进行标准的自回归预训练。但计算损失时会跳过暂停token的预测。

下游任务微调时,输入中也追加一定数量的暂停 token,然后对目标序列进行自回归预测,同时微调模型参数。

推理阶段也追加相同数量的暂停token,但忽略模型输出直到最后一个暂停token,然后开始提取答案。

实验使用了标准的Transformer纯Decoder模型,分为130M参数和1B参数两个版本。

其中暂停token只增加了1024个参数,也就是它本身的embedding大小。

在9个不同任务上的实验表明,仅在微调阶段引入暂停token的效果并不明显,有些任务不会提升。

但如果在预训练和finetune阶段都使用暂停token,大多数任务上都获得显著提升。

论文还探究了暂停token的数量、位置等关键超参数。发现对于不同的模型通常存在一个最优的数量。

最后作者也提出,这项工作也有不少局限性。

  • 由于暂停token增加了模型计算量,与其他方法对比是否公平还有待讨论

  • 新方法需要重新预训练,在实际应用还有一定困难

  • 对具体工作机制还缺乏深入理解

  • 推理时如果暂停token数量为0,模型表现仍然不佳

搜索引擎You.com的CEO表示,接下来是不是应该把所有提高人类认知表现的技巧都对大模型试一试?

现在已经有了“一步一步地想”和“深呼吸”。

也许下一个爆款论文就是教大模型带着问题睡一觉或者更离谱的健康饮食、注意锻炼。

论文地址:
https://arxiv.org/abs/2310.02226

参考链接:
[1]
https://twitter.com/arankomatsuzaki/status/1709372124891070915

「量子位2023人工智能年度评选」开始啦!

今年,量子位2023人工智能年度评选从企业、人物、产品/解决方案三大维度设立了5类奖项!欢迎扫码报名 

MEET 2024大会已启动!点此了解详情


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
丢弃99%的参数!阿里团队提出语言模型合体术,性能暴涨且无需重新训练和GPU巴黎凯旋门背后有故事​晚点财经|集成大模型,或者被大模型集成;10 月中国进口额恢复增长半掩琵琶的真相打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!MetaMath:新数学推理语言模型,训练大模型的逆向思维7B羊驼战胜540B“谷歌版GPT”,MIT用博弈论调教大模型,无需训练就能完成李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型引入33个大模型,百度智能云千帆大模型平台的“破茧时刻”用FP8训练大模型有多香?微软:比BF16快64%,省42%内存北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型开源大模型FLM-101B:训练成本最低的超100B参数大模型手机大模型爆发:vivo 发布自研蓝心大模型,参数追赶 GPT-3曝OpenAI大模型新进展!将推出多模态大模型,新项目Gobi筹备中最新综述!预训练大模型用于医疗健康领域的全面调研小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大一句话让AI训练AI!20分钟微调羊驼大模型,从数据收集到训练全包了在图像、视频生成上,语言模型首次击败扩散模型,tokenizer是关键OPPO 推出自主训练大模型 AndesGPT,初衷是智能助手的技术升级5136 血壮山河之武汉会战 信罗战役 9英伟达推出大模型加速包;Meta将训练对标GPT-4的大模型;ChatGPT等成费水大户丨AIGC大事日报普京:这种武器迫使敌人“三思而后行”全面拥抱大模型!腾讯正式开放全自研通用大模型:参数规模超千亿、预训练语料超 2 万亿 tokens百度云上交大模型成绩单:接入42个大模型,月活企业近万家|甲子光年情人旅馆训练大模型缺少高质量数据?我们找到了一种新的解决方案20万张图片训练出医用AI大模型,斯坦福团队整理16年来社交网络数据并建库,使用图像或文本即可检索类似病例【行业日报】Sam Altman重新担任OpenAI首席执行官鲁秋警官的故事1真正高明的人,都懂得“三思”后行朱啸虎:不要追逐大模型,要跟着大模型进化普林斯顿开源34B数学大模型:性能媲美谷歌Minerva,参数少一半!550亿token专业数据训练清华&通院让AI智能体成功识破谎言!ReCon框架玩转「阿瓦隆」,三思后行+换位思考统一图像和文字生成的MiniGPT-5来了:Token变Voken,模型不仅能续写,还会自动配图了
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。