Redian新闻
>
大模型只靠 RAG 技术能实现知识学习模式的革新吗?

大模型只靠 RAG 技术能实现知识学习模式的革新吗?

公众号新闻

专题解读

事件:近期,在《纽约时报》和 OpenAI 关于版权问题的争论中,学者吴恩达发文表示「重复的文章可能是通过类似于 RAG(检索增强生成)的机制产生的,而非仅仅依赖模型训练的权重。」 与此同时,同济大学等机构发表综述论文《Retrieval-Augmented Generation for Large Language Models: A Survey》。
RAG 全称为 Retrieval Augmented Generation,即检索增强生成。为大型语言模型(LLM)提供了从某些数据源检索到的信息,以此作为生成答案的基础。简单来说,RAG 技术为大型语言模型(LLM)提供从某些数据源检索到的信息,以此作为生成答案的基础。

RAG 技术作为 AI 大模型时代下的热门技术,能够真正解决大语言模型的幻觉、知识更新等问题吗?

RAG 技术是为了解决 LLM 的哪些问题?

1、模型的幻觉问题:

模型幻觉指模型输出的「事实性」内容中包含虚假、误导性信息。RAG 能通过给定 Reference,并限制 LLM 尽量在 Reference 的知识范围内进行指令执行,强化/引导模型正确输出的偏好或纠正模型错误或过时的认知。

2、与真实世界实时交互问题:

RAG 可以帮助模型对自身知识进行动态更新,同时,帮助模型在执行指令时,实时补全空白知识。LLM 的训练语料在时间(非实时)、空间(分布有限)上是受限的,LLM 在训练完成后自身的认知会局限、固化在训练语料的时空内。RAG 可以帮助 LLM 突破原有的时空限制,在更广泛的场景下得到应用。

3、数据问题:

私有数据安全问题,RAG 技术可以将私有数据作为一个外部数据库,让 LLM 在回答私有数据问题时候,直接从

外部数据检索相关信息,在结合检索出来的内容进行回答。这样不参与训练,就不会在 LLM 的模型参数中,记住私有知识。

4、可解释性问题:

通过 RAG 可以解决可解释性、信息溯源、信息验证证等问题,一旦检索的内容和生成的内容建立的关系,可以知道 LLM 模型根据哪些信息得出的回答。

RAG 和提示工程、微调(FT)等其他优化技术相比,有何异同?
1、RAG 就像是给模型一本教科书,用于定制信息检索,非常适合特定的查询;而微调(FT)就像是学生随着时间内化知识,更适合复制特定的结构、风格或格式。

2、微调可以通过加强基础模型知识、调整输出和教授复杂指令来提高模型性能和效率。但不适合整合新知识或快速迭代新用例。

3、这两种方法,RAG 和 FT,并不是相互排斥的,它们可以互补,从不同层面增强模型的能力。在某些情况下,它们的联合使用可能会产生最佳性能。涉及 RAG 和 FT 的优化过程可能需要多次迭代才能达到令人满意的结果。

表:RAG(检索增强生成)与微调的特点对比[14]

特点对比
检索增强生成(RAG)
微调(FT)
知识更新
RAG 直接更新检索知识库,保持信息最新, 模型无需频繁的重新训练,适合动态数据环境。
FT 存储静态数据,知识与数据更新需要重新训练。
外部知识
RAG 擅长利用外部资源,非常适合文档或其他结构化/非结构化数据库。
虽然 FT 可以对大语言模型进行微调以对齐预训练学到的外部知识,但对于频繁更改的数据源来说可能不太实用。
数据处理
RAG 对数据加工和处理的要求低。
PT 依赖高质量数据集,有限的数据集可能不会产生显著性能提升。
模型风格
RAG 主要关注信息检索,擅长整合外部知识,但可能无法完全定制模型的行为或写作风格。
FT 允许根据特定的语气或术语调整大语言模型的行为、写作风格或特定领域的知识。
可解释性
RAG 通常可以追溯到特定数据源的答案,从而提供更高等级的可解释性和可溯源性。
FT 就像黑匣子,并不总是清楚模型为何会做出这样的反应,具有相对较低的可解释性。
计算资源
RAG 需要高效的检索策略和大型数据库相关技术。另外还需要保持外部数据源集成以及数据更新。
FT 需要准备和整理高质量的训练数据集、定义微调目标以及相应的计算资源。
延迟和实时要求
RAG 需要进行数据检索,可能会有更高延迟。
经过 FT 的大语言模型无需检索即可响应,延迟较低。
减少幻觉
RAG 本质上不太容易产生幻觉,因为每个回答都建立在检索到的证据上。
FT 可以通过将模型基于特定领域的训练数据来减少幻觉。但当面对不熟悉的输入时, 它仍然可能产生幻觉。
道德和隐私问题
RAG 的道德和隐私问题来源于从外部数据库检索的文本。
FT 的道德和隐私问题则因为模型的训练数据存在敏感内容。
RAG 架构有哪些局限性或限制?[12]
1、RAG 技术通过检索系统引入外部信息,在外部知识源与 LLM 知识冲突时,会发生难以判断优先级的情况。检索系统本身难以处理事实性错误的误召回问题,如何通过完善相关信息提高 LLM 的分辨能力、妥善处理 Reference 之间发生冲突的生成方案,是 RAG 的局限性之一。

2、近期,self-rag、ReAct、agent 等模式相关工作出现,是否调用、何时调用、怎么调用 agent 的权限被逐渐下放到 LLM ...


RAG 有哪几种几种范式?RAG 技术在 LLM 中如何应用?RAG 效果好不好,如何评估?有哪些关键指标?RAG 架构未来有哪些挑战?... 查看完整解读请前往「机器之心PRO」业内通讯 · 2024年度#Week 02

「机器之心PRO」业内通讯 · 2024年度#Week 02

 1. 模仿学习:OpenAI 放弃的路线是否已进入新篇章?   
炒虾机器人的核心价值是什么?模仿学习对具身智能的价值又是什么?OpenAI 此前在模仿学习方向有多领先?模仿学习近期都有哪些发展?...
 2. 大模型只靠 RAG 技术能实现知识学习模式的革新吗?   
RAG 能解决 LLM 哪些问题?RAG 和 PE、FT 等优化技术有何异同?RAG 架构本身有哪些局限性?...
 3. 从谷歌 Deepmind 具身智能新成果,看通往 AGI 的技术路径   
做具身智能,有哪些技术路径?谷歌 Deepmind 走的是哪条路径,有哪些优劣势?谷歌 Deepmind 具身智能新成果有哪些技术细节值得关注?...


↓↓↓ 关注「机器之心 PRO 会员」服务号,点击菜单栏「收件箱」查看往期通讯。


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
AI早知道|苹果播客应用新增转录功能;上海智能实验室推图文多模态大模型;国产短剧AI换脸出海降本增效夸克发布自研大模型,加速探索革新性搜索产品希克生物:自研压电式微流体驱动泵,用主动微流控技术实现POCT技术革新开启球星中国行新模式的,为什么是小红书?智能科技|御风未来刘星宇:新能源技术将在航空产业带来更为深刻的革命AI早知道|Stability AI推出最小模型;国内首个视频大模型通过备案;内蒙古首个AI大模型工业互联网平台发布Nature:大模型只会搞角色扮演,并不真正具有自我意识随记少样本轻量化:多个小模型互学习会比大模型好么?2023创业家年会关键词是“AI”;百度发布Q3财报;拼多多成立大模型团队;字节飞书接入大模型;比尔·盖茨最新分享量子计算对机器学习算法的革命性影响免费《大模型应用实践》实训营第二周课程来啦!这次百度算法工程师团队手把手教你构建大模型应用,另有第一周干货回顾!如何1秒内快速总结100多页文档?QQ 浏览器首次揭秘大模型实现技术细节长期年化收益率3-4%,纯债投顾组合能实现吗?大模型时代,探迹要给每位销售配上AI助理|100个革新产品(3/100)清华、哈工大把大模型压缩到了1bit,把大模型放在手机里跑的愿望就快要实现了!星舰第二次试飞在即!这一次,马斯克征服宇宙的野心能实现吗?台湾“蓝白”合谈成了,开创台湾新纪元!6049 血壮山河 卢沟桥之变 18传字节成立AI应用新部门Flow;淘天集团筹建大模型团队;浪潮信息开源千亿级大模型丨AIGC大事日报rag bone黑五extra 25%off来了,他家Nina系列的牛仔裤很好穿开创6GHz频谱新纪元:Wi-Fi技术的革新与拓展现实的崛起手术机器人引发的外科手术的革命,与改善人类生活的湾区硅谷科技创新吉祥大出行打造革新性生态出行新模式免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!通过体育帮孩子建立深度学习模型,一位清华妈妈是这么做的Rag Bone 换季up to 75% off, 他家衣服款式质量都不错,看中好几件【动脉严选新品鉴第37期】百度灵医大模型:国内首个产业级医疗大模型快餐式的情欲咀外文嚼汉字(293)药草; 香草;“巴吉尔”,“罗勒”大模型时代的计算机系统革新:更大规模、更分布式、更智能化关于编程模式的总结与思考3D打印技术在建筑业的革命:建设更为高效和可持续的未来每周只工作四天,打工人的“白日梦”能实现吗?周末到啦!开启度假模式的小刺猬,被一只小刺猬秀到了....中国已经有238个大模型了?李彦宏劝各位少做点大模型多搞搞应用吧AI早知道|百度推出视频生成模型UniVG;Soul APP上线自研语言大模型;清华大学首个大模型 Debug
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。