Redian新闻
>
In-context learning综述篇

In-context learning综述篇

公众号新闻

来自:NLP日志
进NLP群—>加入NLP交流群

提纲
1 简介
2 介绍‍‍‍‍
3 方法
    3.1 Training
    3.2 Inference
4 总结‍‍‍‍‍‍‍

参考文献


1 简介‍‍‍‍‍‍‍‍‍

    随着大规模预训练语言模型(LLM)能力的不断提升,in-context learning(ICL)逐渐成为自然语言处理领域一个新的范式。ICL通过任务相关的若干示例或者指令来增强上下文,从而提升语言模型预测效果,通过探索ICL的性能来评估跟推断LLM能力也成为一种新的趋势。

图1: In-context learning示例


2 介绍

    In-context learning是一种学习范式,它允许语言模型通过以演示形式组织的若干个示例或者指令来学习任务。In-context learning的核心在于从任务相关的类比样本中学习,ICL要求若干示例以特定形式进行演示,然后将当前输入x跟上述示例通过prompt拼接到一起作为语言模型的输入。本质上,它利用训练有素的语言模型根据演示的示例来估计候选答案的可能性。简单理解,就是通过若干个完整的示例,让语言模型更好地理解当前的任务,从而做出更加准确的预测。

    从定义上可以发现in-context learning跟其他相关概念的差异,比如prompt learning跟few-shot learning。Prompt learning是通过学习合适的prompt来鼓励模型预测出更加合适的结果,而prompt既可以是离散型,也可以是连续型。严格来讲,in-context learning可以视为prompt learning中的一小部分,如果将in-context learning中的若干示例的演示视作prompt的话。Few-shot learning指的是在给定少量监督数据下利用参数更新来学习最佳模型参数的训练方法,但in-context learning则不然,它不要求参数更新。

In-context learning有以下几个优势,

            a) 若干示例组成的演示是用自然语言撰写的,这提供了一个跟LLM交流的可解释性手段,通过这些示例跟模版让语言模型更容易利用到人类的知识。    

            b) 类似于人类类比学习的决策过程,举一反三。

            c) 相比于监督学习,它不需要模型训练,减小了计算模型适配新任务的计算成本,更容易应用到更多真实场景。



3 方法‍‍‍‍‍‍‍‍

In-context learning可以分为两部分,分为作用于Training跟inference阶段


3.1 Training

    在推理前,通过持续学习让语言模型的ICL能力得到进一步提升,这个过程称之为warmup,warmup会优化语言模型对应参数或者新增参数,区别于传统的finetune,finetune旨在提升LLM在特定任务上的表现,而warmup则是提升模型整理的ICL性能。

Supervised in-context training

    通过构建对应的in-context的监督数据跟多任务训练,进行对应的in-context finetune,从而缩小预训练跟下游ICL的差距。除此之外,instruct tuning通过在instruction上训练能提升LLM的ICL能力。

Self-supervised in-context training

    根据ICL的格式将原始数据转换成input-output的pair对数据后利用四个自监督目标进行训练,包括掩码语言,分类任务等。

    Supervised training跟self-supervised training旨在通过引入更加接近于in-context learning的训练目标从而缩小预训练跟ICL之间的差距。比起需要示例的in-context finetuning,只涉及任务描述的instruct finetuning更加简单且受欢迎。另外,在warmup这个阶段,语言模型只需要从少量数据训练就能明显提升ICL能力,不断增加相关数据并不能带来ICL能力的持续提升。从某种角度上看,这些方法通过更加模型参数可以提升ICL能力也表明了原始的LLM具备这种潜力。虽然ICL不要求warmup,但是一般推荐在推理前增加一个warmup过程。


3.2 Inference

    很多研究表明LLM的ICL性能严重依赖于演示示例的格式,以及示例顺序等等,在使用目前很多LLM模型时我们也会发现,在推理时,同一个问题如果加上不同的示例,可能会得到不同的模型生成结果。

Demonstration Selection

    对于ICL而言,那些样本是好的?语言模型的输入长度是有限制的,如何从众多的样本中挑选其中合适的部分作为示例这个过程非常重要。按照选择的方法主要可以分为无监督跟有监督两种。

    其中无监督的方法分为以下几种,首先就是根据句向量距离或者互信息等方式选择跟当前输入x最相似的样本作为演示例,另外还有利用自使用方法去选择最佳的示例排列,有的方法还会考虑到演示示例的泛化能力,尽可能去提高示例的多样性。除了上述这些从人工撰写的样本中选择示例的方式外,还可以利用语言模型自身去生成合适的演示示例。

    至于监督的方法也有几种,第一种是先利用无监督检索器召回若干相似的样本,再通过监督学习训练的Efficient Prompt Retriever进行打分,从而筛选出最合适的样本。此外还有基于prompt tuning跟强化学习的方式去选择样本。

Demonstration ordering

挑选完演示示例后,如何对其进行排序也非常重要。排序的方法既有不需要训练的,也有根据示例跟当前输入距离远近进行排序的,也可以根据自定义的熵指标进行重排。

Demonstration Formatting

    如何设计演示示例的格式?最简单的方式就是将示例们的x-y对按照顺序直接拼接到一起。但是对于复杂的推理问题,语言模型很难直接根据x推理出y,这种格式就不适用了。另外,有的研究旨在设计更好的任务指令instruction作为演示内容,上述的格式也就不适用了。对于这两类场景,除了人工撰写的方式外,还可以利用语言模型自身去生成对应的演示内容。


4 总结‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

    上面关于in-context learning的介绍可能会让人感到些许困惑,instruction tuning也算是其中一种,但是instruction里不一定有演示示例,我个人想法也是如此,如果大多数instruction里也会提及对应的任务示例,但是不排除部分instruction只涉及到任务定义,所以前面将in-context learning跟任务示例强绑定可能就不太严谨了。但是大家能理解其中的含义即可,也没必要深究其中的某些表述。‍‍‍‍

    毋庸置疑,在大规模语言模型能力快速提升的今天,in-context learning的热度还将持续一段时间,如何通过构建合适的in-context来进一步激发语言模型在特定任务下的表现是值得思考的问题,如果能让语言模型自身去写对应的任务示例或者指令,让模型自己指导自己执行任务,不就进一步解放生产力了嘛。细品下autoGPT,不也是ai自己指导自己完成任务嘛。


参考文献
A survey on in-context learning
https://arxiv.org/pdf/2301.00234.pdf


进NLP群—>加入NLP交流群(备注nips/emnlp/nlpcc进入对应投稿群)


加入星球,你将获得:

1. 每日更新3-5篇论文速读
2. 最新入门和进阶学习资料
3. 每日1-3个AI岗位招聘信息


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Chinese Journalist Beaten While Investigating Teachers’ DeathsIn-Context-Learning在更大的语言模型上表现不同In-context系列之demonstration ordering国际青少年创新创业大赛! International Youth Innovation&Entrepreneur Contest论文季,综述怎么写?50页+Citespace详尽教程,一步搞定文献综述【雨水】心雨细无声· 写在老爸“七七”之日我也来一首类似的。。。。。。冬季周末的一大享受China Proposes To Regulate AI-Generated Content今日实习|贝恩Associate Consultant Intern火热招聘中,本科生即可申请!100+经典综述解读,这个CiteSpace热点能帮你写出符合要求的文献综述Chinese Athletes Excel at Ski Mountaineering World ChampionshipsIntex Explorer K2 二人充气独木舟5.9折 166.59元包邮!柏林工大也有自己的Döner店了!实习快讯|贝恩Associate Consultant Intern火热招聘中,本科生即可申请!"𝙇𝙚𝙖𝙙 𝙏𝙝𝙚 𝘾𝙝𝙖𝙧𝙜𝙚"广告#创译挑战Agustín Hernández:中美洲建筑背景下的未来主义巨构Base薪资$250K!Jane Street (US) 开放2024 Winter InternshipC 语言里面的 extern "C" ,并没有那么简单!Amid AI Content Boom in China, Douyin Vows Greater Scrutiny“臭豆腐”妙诗一首。。。。。。。ECMAScript 双月报告:Async Context 提案成功进入到 Stage 1As City Bus Service Teeters in Henan, Local Government Steps InTipping Livestreamers ‘Out of Control’: China State Broadcaster精选SDE岗位 | IXL Learning、Burns & McDonnell、Kikoff等公司发布新岗位!Sexual Offenses Against Minors Rising in China, Says GovernmentPowering The Next Wave 纽约线下活动预告|硅兔活动草书《兰亭序》Intex Excursion 4人坐充气橡皮艇/钓鱼船5.9折 223.81元!完美世界TA谈Stable Diffusion插件,ControlNet、Segment AnythingRRC detection、CornerNet、M2Det、FOCS…你都掌握了吗?一文总结目标检测必备经典模型(三)Chinese City Creates Single Residents’ Database for Matchmaking什么是In-Context Learning(上下文学习)?会计师联盟 | BDO 2024 International Tax Intern全职岗招募已开数字经济未来趋势|2022 NeXTSCENEx地标马克联合元宇宙发布会
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。