Redian新闻
>
RAG与Long-Context之争—没必要争

RAG与Long-Context之争—没必要争

公众号新闻


MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。
转载自 | NLP工作站

随着大模型可以支持的上下文(Context)长度越来越长,网上(好几个群里都在聊这个话题,也来聊几句)竟然出现了RAG与Long-Context之争,是真没必要。。。主要是两者不冲突,并不是非A即B、非B即A的关系。

个人观点:如果类比做检索系统的话,RAG应该算作粗排,而Long-Context可以算是精排。RAG的本质是通过用户问题从数据库/知识库中找到相关片段内容,再利用大模型查找或总结出答案。Long-Context的本质是将所有文本内容全部灌入到大模型中,用户问一个问题,再利用大模型查找或总结出答案。

本质区别在于外部知识如何给到大模型,以及给多少到大模型。

这也是大家的所“争”之处,因为大模型可以接受的长度越长,那么检索的重要性就会降低,对检索效果的依赖就会降低,也就是为什么有人持观点,未来没有RAG,只有Long-Context。但大模型随着输入长度越长,KV Cache所占资源就越多,成本也会剧增,这也是为什么有人持观点,未来也会有RAG。

那么未来是多远呢?如果未来只是5年,我觉得RAG一定会存在;如果未来是AGI,那么也许不需要RAG。

为什么RAG是粗排,Long-Context是精排

从计算量角度来看,目前RAG是靠检索系统来进行相关内容过滤,一般采用ES、向量匹配等方法,可以理解计算量较小,也就是文本之间交互较少;而Long-Context相当于用户Query与文本交互时,利用了整个大模型参数,即通过Transformer的每一层Attention来定位相关文本片段。

从文本选择角度来看,Long-Context可以类比成人为已经确定了问题的相关内容,而RAG需要借助检索手段来确定问题所涉及的相关内容,有一定的信息损失。

大模型上下文支持的越长,对RAG越友好

RAG是目前大模型落地最快速、最有效、最安全的方式。但RAG依然存在很多问题,例如:文档在切段的过程中会将文本原始语义切割、检索匹配存在准确率的问题。但当大模型Context可以支持更长时,RAG可以对文档不切割甚至少切割,检索可以召回更多内容,Top10不够用我们就来Top100。

那么,

  • 如果你站边RAG,那么大模型即使支持了Long-Context,它也是大模型;

  • 如果你站边Long-Context,那么RAG就是在大模型支持无限Context前的过滤手段。

争与不争的核心问题在于数据库/知识库中内容长度是否会超出大模型所能支持的最大长度。

但检索越好、大模型支持长度越长,对于目前大模型落地、大模型可持续发展都是必不可少的,we are famlily!!!

Long-Context会打击到一些RAG的场景,但不是全部

不可否认,Long-Context会打击到一些RAG的场景。

主要就是数据库/知识库内容不超过大模型最大长度的场景,例如:涉及场景中仅有几篇文档作为参考资料,完全不需要检索,直接暴力解法都给大模型就完事儿了。

但如果超出大模型最大长度的内容,不用检索过滤,请问阁下如何应对。

很多极端的人说可能就不存在领域大模型了,但仔细想想,即使Gemini支持1M Token、Kimi-Chat支持200w字,也就是400多个PDF(假设一个PDF平均有5k字),垂直领域(不抬杠,这里特指一些大领域)数据何至于此呀。

还有,在场景中针对权限的判定,没必要用大模型来判断,完全可以进行域隔离就行,那么也无需将所有文本给到大模型(节省计算资源)。

PS: 说个题外话,貌似人一辈子也就产生0.3B左右的Tokens(之前群友讨论过这个话题),是不是当模型支持最大长度达到300M时,可以快速复制一个人了。不用微调,直接给库。

你能部署1M Token的大模型服务吗

KV Cache的计算方式是4*Batch Size*模型层数L*注意力维度H*KV Cache长度,要硬支持1M长度的话,确实有些可怕。

当然目前有一些优化方法,滑动窗口、Cache量化等等等(欢迎大家补充),但即使这样由于大模型参数规模较大,显存占用也是很可怕的。并且滑动窗口貌似与感觉与retrieval差不多,都是有损失的。那么若可以接受损失,那么为什么不能接受retrieval。

当然前面聊的内容都没有考虑成本问题,但回归现实,请问有哪些厂家有能力部署支持1M Token的大模型模型服务,或者说部署这样一个模型的性价比如何?

对于ToC,大模型服务由大模型公司进行部署,成本由大模型公司承担,那么考虑的就是如何盈利的问题(当然可以为了梦想不考虑)。

对于ToB,会遇到一个很现实的问题,用了这么多显卡,能来什么?Long-Context相较于RAG来说,能否带来精度的提高,可以带来多少提高,是否会增加延迟,相同显卡情况下部署更大的模型+RAG是否更有性价比。

如果你遇到一个1张T4部署大模型的需求,就知道显示是多么残酷。并不是抬杠,只是我在路上走,目标活下去。

如果你相信AGI,Cache所有文本就不是梦

在技术飞速发展的时代,那么未来有一天,用较小的代价来Cache所有的文本也许不是梦。

但真的有必要吗?

Long-Context和RAG本质是都是让大模型找到更好的答案,真正智能还是要靠模型本身。接受更长的上下文可以侧面反应模型的智能,但模型的智能并不仅仅是接受更长的上下文。


技术交流群邀请函

△长按添加小助手

扫描二维码添加小助手微信

请备注:姓名-学校/公司-研究方向
(如:小张-哈工大-对话系统)
即可申请加入自然语言处理/Pytorch等技术交流群

关于我们

MLNLP 社区是由国内外机器学习与自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外知名的机器学习与自然语言处理社区,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。

    微信扫码关注该文公众号作者

    戳这里提交新闻线索和高质量文章给我们。
    相关阅读
    TSA Pre, Global Entry, Nexus, Sentri:2024年10月开始全面涨价!何恺明重提十年之争——模型表现好是源于能力提升还是捕获数据集偏置?High-Speed Train Compartment for Children Excites Netizens提拉米苏的寂静欢喜可控图像生成最新综述!北邮开源20页249篇文献,包揽Text-to-Image Diffusion领域各种「条件」4月不防晒,6月别想白!春天防晒没必要?你还是太天真了……成为有钱人为什么难?巴菲特:没必要在8件事上“挥霍”钱8B文字多模态大模型指标逼近GPT4V,字节、华师、华科联合提出TextSquare美股基本面 - 2024_02_03 * 晨报 * 全场高呼AVP!苹果首款头显上市,库克:这是明天的技术,定价合理。纽约社区Discovering Shanghai’s Jiangnan Culture Through Ancient Towns虐杀妻子还要争遗产?硅谷华人杀妻案第7次提审:出庭10分钟又延期英伟达市值超越谷歌!老黄隔空回应Altman的巨资筹款计划:没必要,真的没必要!向鲍威尔挥动鹰派“大锤”!美联储沃勒:没必要着急降息【广州美国中心活动】RELO English Teaching Seminar,3月30日,星期六,早上9:30-12:00今日arXiv最热大模型论文:何恺明重提十年之争——模型表现好是源于能力提升还是捕获数据集偏见几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling独角戏版《万尼亚》,可以但没必要?外企社招丨Dräger德尔格,行业全球领导者,15薪,六险一金,多样福利,偏爱留学生能劝一个是一个!这类人真没必要买眼霜......听劝! 给爸妈买保健品, 这些真没必要![腕表] 犹犹豫豫 喜提探一 Rolex Explorer 36mmHow a Student’s Fake Exercise Book Broke the Chinese Internet微软发布!提示工程进化为位置工程,有效提升RAG与上下文学习Extreme Weather Battered China in 2023. This Year Could Be Worse踏破铁鞋无觅处9旬老头闪婚54岁华人女??过世留下百万房产,比继母还大的女儿要争遗产...Shanghai Study Unlocks Key to Better Pancreatic Cancer Treatment深入解析大模型主流微调方法:从LoRA、QLoRA到Flash Attention、增量学习《阴阳鱼》连载第16章:时间如刀,空间如砧板,而你我都不过是鱼肉Out in the Cold: In Northeast China, a Season of Wild Extremes特斯拉全系降价后与小米 SU7 差价仅 1.6 万/ Apple Watch X 渲染图曝光/周鸿祎称开源和闭源没必要相互贬低市区Loop房源L12 | 不收中介费/Half Month Free/蝙蝠侠取景地/距离EY350米/Deloitte900米《幺妹和市场街》(9)China Looks forward to Jointly Creating Shining “South Moment”每天10句英语口语|How long have you been studying English here?
    logo
    联系我们隐私协议©2024 redian.news
    Redian新闻
    Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。