Redian新闻
>
微软发布!提示工程进化为位置工程,有效提升RAG与上下文学习

微软发布!提示工程进化为位置工程,有效提升RAG与上下文学习

科技

夕小瑶科技说 原创
作者 | 谢年年

别再光顾着优化提示工程啦!微软最近推出位置工程研究思路,只需调整token的索引位置,而不修改文本本身,就能显著提高任务性能。

提示工程通过添加、替换或删除段落和句子改变提示,调整语义信息,激发LLMs的推理能力。比如CoT通过在问题的结尾附加“Let's think step by step”这几个词,鼓励模型生成推理过程。

而微软这篇工作发现在tokens之间引入占位符token可改变其他token的相对位置。这些占位符token不参与注意力分数的计算,但占据了token索引位置。因此可能优化提示中不同段落之间的注意力权重。

▲提示工程与位置工程的比较。"Para"指的是提 示中的段落,"Sent"指的是句子。

通过在两个广泛使用的LLM场景中——检索增强生成(RAG)和上下文学习(ICL)——对位置工程进行了评估。结果表明,位置工程在两种情况下都显著优于基础模型。

又一充分激发LLMs能力的新策略出现啦,说不定也是一个产出论文的好方向!

论文标题:
Position Engineering: Boosting Large Language Models through Positional Information Manipulation

论文链接
https://arxiv.org/pdf/2404.11216.pdf

位置工程:在提示中更改位置信息

为什么改变token的位置有奇效,先来了解一下LLMs如何整合位置信息。

前置知识

表示输入到语言模型的tokens,用表示相应的token嵌入。首先,注意力层计算(查询)、(键)和(值):

其中, 分别是token的位置索引。自注意力计算如下:

其中, 是一个标量,表示查询中第个toekn与值和键集中第个token之间的注意力分数。表示注意力层的维度,而表示第个查询token的输出。

然后通过引入与相关的位嵌入向量引入绝对定位:

位置嵌入的第维度的计算方法如下:

而近期的大模型如Llama和Mistral多采用RoPE(Relative Position Embedding),一种相对位置嵌入。它利用一个特定设计的矩阵(维度为d × d,参数化为i),对查询和键向量进行如下修改:

矩阵 有一个独特性质,即,这导致:

因此, 在公式(2)中, 模型只关注相对位置, 而不是绝对位置

位置工程

本文所提到的位置工程仅对公式(1)中使用的位置信息进行调整。目标是找到一个位置编辑函数,改变并融入模型中的token位置信息,提升LLM的表现:

其中。确保(1)两个不同的token不会被赋予相同的新的位置索引;(2) 语言建模中的因果关系保持不变,只有索引更大的查询向量可以访问索引相等或更小的键和值向量,反之则不行。

具体来说在需要改变位置关系的token之间插入位置占位符,定义为,比如在RAG任务重表示在指令和文档段之间插入个占位符token,而则表示在文档段和问题之间插入占位符token。

占位符token不参与注意力分数计算,但分配了位置索引。当按照公式(2)中的描述计算,并且第个 token被识别为占位符时,常规计算会被跳过,被设置为 0。

如图下图b所示,将占位符token插入句子1和2之间影响了它们之间的相对位置信息,进而影响两个句子中tokens之间的注意力分数计算。

实验

作者在LLMs两大流行任务检索增强生成(RAG)和上下文学习(ICL)上评估了位置工程的有效性,主要测试模型为是Llama-13B-chat。

1. RAG的位置工程

RAG方法首先涉及与用户查询相关的文档检索。随后,检索到的内容被提供给生成模型,以形成响应。

数据集

作者使用了四个开放域问答数据集:NQ open、EntityQuestions、TrivialQA和WebQuestions。从每个数据集的原始训练集中随机选取了300个问答对构建位置工程训练集。同时,从它们的原始测试集中随机选取了2,000对作为测试集;若某个数据集没有测试集,则使用其评估集替代。

检索模型:采用了经过MS-MARCO数据集微调的Contriever模型。检索源来自维基百科,每个文档段落限制为100个词。检索了k个文档段落,其中k分别取值为1、3、5,并将这些段落连接起来后输入到LLMs中。

评估指标:采用了最佳精确匹配准确率,即判断输出中是否包含正确答案。

搜索空间

RAG的提示输入分为三个部分:指令、检索到的文档与问题。

通过在指令和文档段之间插入 临时占位符token,以及在文档和问题段之间插入 临时占位符 token。如下图所示:

为了缩小搜索空间,限定 的值在预定义集合{0, 100, ..., 2500} 内。同时,由于上下文窗口大小的限制,要求

作者在 Llama-13B-chat 模型的训练集上评估所有组合的性能,然后将最佳配置应用到测试集。结果如下表所示:

结果表明,位置工程显著提升了RAG在所有设置下的性能。其中,在WebQuestions数据集中,仅使用一个检索到的文档时,性能提升最为显著,达到了15.4%。

在所有考察的数据集中的最佳参数都表现出一致的趋势

通常取值在1,000到2,000的较大范围内,而 则是一个相对较小的数值,其范围大致在200到600之间。这些参数设置对于优化RAG的性能起到了关键作用。

2. RAG通用位置工程设置探索

作者还探讨了在“确定一个单一的位置设置“的情况下,能否普遍提升RAG在不同数据集和各种检索文档数量下的性能。

作者可视化了每个位置配置的平均百分位值,如下图所示。这些值首先通过聚合给定数据集和特定检索文档数量的全部准确率得分得到,然后计算百分位分并对所有配置进行平均。

基线配置的平均百分位数为31.6。大约68%的配置可以通过简单地调整位置信息来超过基准性能。

通常,在1300到2000的范围内选择值,并将设置在300到500的范围内是有利的。将设置为过高的数值(例如超过1500)会显著降低性能,可能是因为它导致忽略提示中的文档信息。此外,固定值,增加通常性能会更好。

在训练集上,表现出最高的百分位值为92.9。将这个配置应用于所有数据集和检索文档数量的测试集。如下表所示,相比基线,性能都有所提高。

3. 移除指令段探索

从上节的实验结果可以看出,为了达到最佳性能,偏好较大的表示指令段和文档段之间的间隔。较大的减少了指令段的影响。这引出了一个问题:完全移除指令段是否会进一步提升性能?结果如下表所示:

移除指令段的性能与基线设置相当。在使用一个检索到的文档时,WebQuestions 数据集上的最大提升达到了 2%。然而,同一体验设置下的位置工程改进幅度为 15.4%。

因此,为了实现最佳性能,我们的策略应当是削弱指令段的影响,而非完全消除它。对于位置工程而言,这相对容易实现。但对于提示工程来说,这却是一个挑战。

4. ICL的位置工程

在上下文学习(ICL)中,LLMs通过观察多个上下文示例来学习新任务的能力。

数据集

作者选用TREC和SST2两个数据集。主要关注TREC数据集中6个粗分类问题,SST2数据集包含电影评论,目标是将其分类为正面或负面。训练集从TREC和SST2的原始训练集中随机选择300个样本。测试集使用TREC的全部500个 样本测试集。SST2数据集使用其验证集的全部842个样本作为测试集。

对每个测试样本,从训练集中每个类别随机选择3个示例作为上下文 示例,TREC为18个,SST2为6个。采用精确匹配分数作为评估指标。

搜索空间

提示模板如下图所示,分为三个部分指令段、 示例段和查询段。对于TREC数据集,使用类似的提示模板,仅将"Review"替换为"Question","Sentiment"替换为"Question Type",

作者在指令段和示例段之间插入了占位符,在示例段和查询段之间插入了占位符,以及在示例之间插入了占位符,如下图所示:

在实验过程中,为的候选值设置了集合{0, 100, ..., 600},尝试从0到600的多个不同间隔,以找出最佳的位置配置。对于,设定了值集{0, 20, ..., 100},以探索示例之间的最佳间隔。结果如下表所示:

  • 在两个数据集上都实现了性能提升,TREC 数据集上的绝对提升为 3.6%,SST2 数据集上的绝对提升为 1.9%。

  • 最优的位置在不同的数据集之间有所变化。TREC 需要将 调整为 40,同时设置 为 0;而对于 SST2,最优设置是将 设置为 100,同时 保持为 0。

  • 值设置在{200, 300, ..., 600}范围时,模型性能明显下降,这与RAG任务中的观察结果相吻合。主要调节示例段对模型的影响。对于SST2任务(即对评论情感进行分类),由于LLM可能已具备相关基础知识,选择可以适度降低示例段的影响。而对于TREC任务(需LLM从示例中学习问题类型),保持则更为合适。

结论

本文提出了一种创新方法——位置工程,通过微调提示中的位置信息,显著提升了任务表现。在多种任务和模型上的实验均验证了其有效性。

与需在复杂文本空间进行搜索的提示工程相比,位置工程更易于优化。更重要的是,位置工程仅涉及更新LLMs的输入位置索引,无需增加总体计算开销。

此外,位置工程与提示工程可以有机结合,共同发掘LLMs的潜在能力,使其性能得到充分发挥。有兴趣的同学可以沿着这个方向多研究研究。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
CVPR 2024 | E2STR:基于多模态上下文学习构建的自进化文本识别模型马斯克官宣Grok-1.5!超GPT-4 16倍上下文,推理能力超DBRX,网友:赢在敢说!有多少学子遭到中共的残酷迫害?马斯克官宣 Grok-1.5!超 GPT-4 16 倍上下文,推理能力超 DBRX,网友:赢在敢说!微软发布新AI PC全家桶,支持GPT-4o/苹果发布更新修复照片复现问题/ChatGPT 语音酷似「寡姐」,本人回应ChatGPT 语音酷似「寡姐」,本人回应/微软发布「Copilot + PC」/理想今年不再发布新纯电车型牛皮吹破?大模型长输入能力不能拿来做上下文学习AI早知道|工信部发首个国内个人信息保护AI大模型;魅族发布首款开放式AI终端;微软发布金融版Copilot"蝙蝠侠"空中加油 - 美军力倍增百万token上下文窗口也杀不死向量数据库?CPU笑了一次性支持 200 万字无损上下文!Kimi智能助手玩了个大的——月之暗面「登月」最新进展!32K上下文,Mistral 7B v0.2 基模型突然开源了两轮游中国 - 我的所见,所闻和所想 阳光明媚的贵阳吴恩达团队新作:多模态多样本上下文学习,无需微调快速适应新任务GPT-4劲敌Claude 3来了,上下文和多模态显著提升:OpenAI是可被超越的马斯克大模型Grok1.5来了:推理能力大升级,支持128k上下文Meta等发布巨齿鲨Megalodon!无限上下文长度的高效大模型预训练和推理月之暗面 Kimi 智能助手实现 200 万字长上下文,火山引擎提供云服务支持宗庆后他是好人;离婚了,就别再来找我;情感躺平,情感摆烂。AI鲜测 | Claude 3全面升级:多模态+100万Token上下文长度,OpenAI也拦不住了我是如何赢得GPT-4提示工程大赛冠军的马斯克突发Grok 1.5!上下文长度至128k、HumanEval得分超GPT-4吴恩达团队新作ManyICL:多样本上下文学习显著提高多模态基础模型性能!外企社招丨Dräger德尔格,行业全球领导者,15薪,六险一金,多样福利,偏爱留学生Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文万字长文总结提示词技巧!新加坡首届GPT-4提示工程大赛冠军最新分享一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免曾经火出圈的提示工程要死了吗?危!大模型能自己优化Prompt了Zilliz携手智源研究院集成业界大热模型,全面提升RAG质量元宵节古都西安叹免费试听|编程技巧+模型理解+实战项目,有效提高简历含金量,增加通过初筛概率!留学申请如何有效提升软实力?海外名校教授科研招募!CVPR 2024 | 中科大&微软提出:迈向更统一的上下文视觉理解2024暑期实习热招中!有效提升留学申请软实力!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。