Redian新闻
>
如何提升LLMs:CCoT

如何提升LLMs:CCoT

科技

为何要理解Prompt技术

最近看了很多相关的论文、做了很多相关的实验,其实就是想搞明白一个问题:LLMs是否具有智能,现在可能不行,那么未来呢?

每个人都知道 LLMs 的核心是 Transformer——对下一个 Token 进行预测。表面看起来这个和智能无关,尤其是 Prompt 的技术和实验看得越多,就觉得当下的 LLMs 还只是学到形式,并没有真正的懂得。

但不得不说,GPT4 的效果真好。

如果还是采用 Transformer 的架构,该如何提升性能呢?

第一个想到的是更多的数据,包括更多的知识,更多的各种形式的知识。这个会增加 LLMs 的知识,会增加能力,但似乎会不增加新的能力。

即使是新的合成数据,增强的是指令理解的能力,对 Prompt 的格式的要求会降低。

然后是增加模型的参数,这个会有用么?其核心问题是,LLMs 从文本中到底学到了什么。文本本身是世界知识的抽象,是有压缩损耗的,通过文本本身的学习,是否会学到压缩的过程呢?需要多少参数?

CCoT

Contrastive Chain-of-Thought Prompting——对比性思维链提示(CCoT)使用正面和负面示例来提高大型语言模型的推理能力。

近来出现了许多链式X示例,展示了大型语言模型(LLMs)如何能够将复杂问题分解为一系列中间步骤。这导致了一种现象,有些人称之为X链。

这个基本原理最初是由连锁思考(CoT)提示的概念引入的……CoT提示的基本前提是模仿人类解决问题的方法,我们将较大的问题分解成较小的步骤。

LLM随后会集中注意力解决每个子问题,从而减少忽视关键细节或做出错误假设的可能性。

CoT的一个有趣特点是使用无效示范者的影响相对较小;这意味着在中间推理步骤中的错误假设会沿着链条传播下去。

考虑到这一点,对比性思维链(CCoT)专注于提供正面和负面的例子,以努力增强模型的推理能力。这个研究有效果,再次证明了上下文学习(ICL)对于大型语言模型(LLMs)的重要性。

CCoT在推理时向LLM展示了有效和无效的推理示例。模型不知道在传统CoT中应避免哪些错误,这可能导致错误增多和错误传播。CCoT在示范例子中提供了正确和错误的推理步骤。

总的来说:

1. 对比正面和负面的例子可以提高CoT方法的有效性。

2. 需要开发一种自动化方法来创建正面和负面示例,这种方法基于人工注释的数据,包括正确的和合适的错误数据。

3. CCoT相较于传统CoT方法的改进带来了开发提示创建结构的额外负担。

如何构建 CCoT 呢?我们现了解如下的框架。

传统的CoT包括两个要素:桥接和语言模板。

桥接

桥接是指模型在得出最终结论时所遍历的象征性项目。在算术任务中,桥接可以由数字和方程式组成,或者在事实任务中由实体的名称组成。

语言模板

语言模板是文本提示,它指导语言模型在推理过程中派生和情境化正确的桥接对象。

上图是一个实际例子,展示了用于创建思维链条推理的桥接对象(蓝色)和语言模板(红色)。
考虑两个属性:连贯性和关联性。这都对正确推理有影响。
连贯性指的是在理由中正确排序步骤,并且对于成功的思维链条是必要的。具体来说,由于思维链条是一个顺序推理过程,后续步骤不可能是早期步骤的先决条件。
关联性指的是论证是否包含问题中的对应信息。例如,如果问题提到一个名叫Leah的人在吃巧克力,那么讨论另一个人剪头发就是不相关的。
考虑上图,这里你看到了标准提示、思维链提示和对比性思维链提示的输入和输出示例的比较。
最后看一下效果:
效果是有,但整体没那么方便。
论文:https://arxiv.org/abs/2311.09277
参考:https://cobusgreyling.medium.com/contrastive-chain-of-thought-prompting-cc8c5b75a6e0

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
如何更好的使用 LLMs:Self-RAG加速知识检索:伯克利&DeepMind联合研究,RaLMSpec让语言模型服务飞速提升2-7倍!如何使用LLMs:Chain of Verification (CoVe)探寻西西里与马耳他的历史脚印(13)EMNLP2023 | LLMs也许不擅长少样本信息提取,但可以为候选答案重新排序!全面对标OpenAI生态!智谱AI推出GLM-4大模型全家桶,GLMs上线,不会编程也能创建AgentLLMs的魔法能力来自哪里L2级的LLMs→L3级的Copilot→L4级的Agents→L5级的EmbodiedAI“肤浅”浅析台湾李宏毅:如何让LLMs更好评估文本质量?今日Arxiv最热NLP大模型论文:MIT推出新方法,大幅提升LLMs的连贯性、准确性和可更新性!港大联合百度 WSDM 2024 | 如何让LLMs助力推荐系统?图数据增强混迹江湖,如何提升认知水平?如何提升自己?除了心态还有什么?2023 LLM技术报告—— LLM的工具和平台突然来访的小客人​听说!化学竞赛获奖概率:CCC>USNCO>UKCho?混迹金融圈,如何提升认知水平?提示词专场:从调整提示改善与LLMs的沟通,到利用LLMs优化提示效果【本周讲座预告】双螺旋™:详解本科各年级如何提升求职能力谷歌发布West-of-N,利用合成数据,显著提升LLM奖励模型质量 | 今日Arxiv最热大模型论文200刀Samsung C24FG70FQE 24" Full HD 1ms 144Hz Curved Quantum Dot 《三首夏日黎明的歌》by 罗伯特·哈斯0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性车联网联盟CCC:CCC数字钥匙进入汽车的未来白皮书骁龙8 Gen 3处理器发布:CPU性能提升30%、GPU提升25%港大&百度提出LLMRec:基于LLM增强的多模态图神经网络推荐陈丹琦新作:一个LLM的评估基准LLMBarLLM-first IDE:Code Agents 超级入口,软件开发的“Excel 时刻”Continuous Batching:解锁LLM潜力!让LLM推断速度飙升23倍,降低延迟!COMSOL 全新发布COMSOL Multiphysics® 6.2 版本今日arXiv最热NLP大模型论文:伯克利&DeepMind联合研究,RaLMSpec让检索增强LLM速度提升2-7倍!探寻西西里与马耳他的历史脚印(14)匠人科技项铭:大数据如何提升商办和政府精准招商的效率?海外知名休闲发行商分享:如何提升手游LTV、玩家参与度和变现效率?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。