如何更好的使用 LLMs:Self-RAG
本文内容来自:
论文:《Self-RAG: Learning to Retrieve, Generate and Critique through Self-Reflections》 https://arxiv.org/pdf/2310.11511.pdf
Twitter:https://twitter.com/cwolferesearch/status/1719054078544601096
论文描述的方法比较繁杂且富有技巧,但是思想比较赞同,由于模型能力的限制,不同的问题需要不同的 Prompt 解决,但 Prompt 又无法预先设置,就需要有一个独立的分析模块。
其实在实际的应用中,不仅仅是需要判断是否检索,例如:
做数学题的时候,我们给一些例子 物理题的时候,抽象一下原理 等等
Self-RAG训练。为了训练一个Self-RAG模型,论文作者首先在一个由GPT-4生成的合成数据集上训练一个Critic模型,该模型展示了如何将反思标记插入LLM的正常回复中。然后,使用这个Critic模型以离线方式为Self-RAG生成训练数据,通过向LLM的回复中添加Critic标记。接下来,可以使用一个类似LLaMA的模型作为起点,对这些数据进行端到端的训练,通过下一个标记的预测来学习必要的retrieve和critic技巧。
关于实用性的说明。Self-RAG解决了RAG的一个重要限制。即使这些段落可能与提示无关,RAG始终会为LLM的上下文检索一定数量的段落。然而,Self-RAG引入了许多不实用的推理过程的复杂性——它需要LLM进行大量额外的前向传递!因此,Self-RAG可能对应用程序没有用处,但希望会有更实用/高效的变体出现。
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章