Redian新闻
>
对于大模型RAG技术的一些思考

对于大模型RAG技术的一些思考

公众号新闻

最近在公司完成了一个内部知识问答应用,实现流程很简单,实际上就是Langchain那一套:

  • 对文档进行切片
  • 将切片后的文本块转变为向量形式存储至向量库中
  • 用户问题转换为向量
  • 匹配用户问题向量和向量库中各文本块向量的相关度
  • 将最相关的Top 5文本块和问题拼接起来,形成Prompt输入给大模型
  • 将大模型的答案返回给用户

具体可以参考下图,

这个流程的打通其实特别容易,基本上1天就能把架子搭起来,然后开发好了API对外服务。并且在尝试了几个通用的文档后,觉得效果也不错。

但是,当公司内部真实文档导入之后,效果急转直下。

当时初步分析,有以下几个原因:

1. 文档种类多

有doc、ppt、excel、pdf,pdf也有扫描版和文字版。

doc类的文档相对来说还比较容易处理,毕竟大部分内容是文字,信息密度较高。但是也有少量图文混排的情况。

Excel也还好处理,本身就是结构化的数据,合并单元格的情况使用程序填充了之后,每一行的信息也是完整的。

真正难处理的是ppt和pdf,ppt中包含大量架构图、流程图等图示,以及展示图片。pdf基本上也是这种情况。

这就导致了大部分文档,单纯抽取出来的文字信息,呈现碎片化、不完整的特点。

2. 切分方式

如果没有定制切分方式,则是按照一个固定的长度对文本进行切分,同时连续的文本设置一定的重叠。

这种方式导致了每一段文本包含的语义信息实际上也是不够完整的。同时没有考虑到文本中已包含的标题等关键信息。

这就导致了需要被向量化的文本段,其主题语义并不是那么明显,和自然形成的段落显示出显著的差距,从而给检索过程造成巨大的困难。

3. 内部知识的特殊性

大模型或者句向量在训练时,使用的语料都是较为通用的语料。这导致了这些模型,对于垂直领域的知识识别是有缺陷的。它们没有办法理解企业内部的一些专用术语,缩写所表示的具体含义。这样极大地影响了生成向量的精准度,以及大模型输出的效果。

4. 用户提问的随意性

实际上大部分用户在提问时,写下的query是较为模糊笼统的,其实际的意图埋藏在了心里,而没有完整体现在query中。使得检索出来的文本段落并不能完全命中用户想要的内容,大模型根据这些文本段落也不能输出合适的答案。

例如,用户如果直接问一句“请给我推荐一个酒店”,那么模型不知道用户想住什么位置,什么价位,什么风格的酒店,给出的答案肯定是无法满足用户的需求的。

问题解决方法

对于以上问题,我采取了多种方式进行解决,最终应用还是能够较好的满足用户的需求。

1. 对文档内容进行重新处理

针对各种类型的文档,分别进行了很多定制化的措施,用于完整的提取文档内容。这部分基本上脏活累活,

  • Doc类文档还是比较好处理的,直接解析其实就能得到文本到底是什么元素,比如标题、表格、段落等等。这部分直接将文本段及其对应的属性存储下来,用于后续切分的依据。
  • PDF类文档的难点在于,如何完整恢复图片、表格、标题、段落等内容,形成一个文字版的文档。这里使用了多个开源模型进行协同分析,例如版面分析使用了百度的PP-StructureV2,能够对Text、Title、Figure、Figure caption、Table、Table caption、Header、Footer、Reference、Equation10类区域进行检测,统一了OCR和文本属性分类两个任务。
  • PPT的难点在于,如何对PPT中大量的流程图,架构图进行提取。因为这些图多以形状元素在PPT中呈现,如果光提取文字,大量潜藏的信息就完全丢失了。于是这里只能先将PPT转换成PDF形式,然后用上述处理PDF的方式来进行解析。
  • 当然,这里还没有解决出图片信息如何还原的问题。大量的文档使用了图文混排的形式,例如上述的PPT文件,转换成PDF后,仅仅是能够识别出这一块是一幅图片,对于图片,直接转换成向量,不利于后续的检索。所以我们只能通过一个较为昂贵的方案,即部署了一个多模态模型,通过prompt来对文档中的图片进行关键信息提取,形成一段摘要描述,作为文档图片的索引。效果类似下图。

2. 语义切分

对文档内容进行重新处理后,语义切分工作其实就比较好做了。我们现在能够拿到的有每一段文本,每一张图片,每一张表格,文本对应的属性,图片对应的描述。

对于每个文档,实际上元素的组织形式是树状形式。例如一个文档包含多个标题,每个标题又包括多个小标题,每个小标题包括一段文本等等。我们只需要根据元素之间的关系,通过遍历这颗文档树,就能取到各个较为完整的语义段落,以及其对应的标题。

有些完整语义段落可能较长,于是我们对每一个语义段落,再通过大模型进行摘要。这样文档就形成了一个结构化的表达形式:

idtextsummarysourcetypeimage_source
1文本原始段落文本摘要来源文件文本元素类别(主要用于区分图片和文本)图片存储位置(在回答中返回这个位置,前端进行渲染)

3. RAG Fusion

检索增强这一块主要借鉴了RAG Fusion技术,这个技术原理比较简单,概括起来就是,当接收用户query时,让大模型生成5-10个相似的query,然后每个query去匹配5-10个文本块,接着对所有返回的文本块再做个倒序融合排序,如果有需求就再加个精排,最后取Top K个文本块拼接至prompt。

实际使用时候,这个方法的主要好处,是增加了相关文本块的召回率,同时对用户的query自动进行了文本纠错、分解长句等功能。但是还是无法从根本上解决理解用户意图的问题。

4. 增加追问机制

这里是通过Prompt就可以实现的功能,只要在Prompt中加入“如果无法从背景知识回答用户的问题,则根据背景知识内容,对用户进行追问,问题限制在3个以内”。这个机制并没有什么技术含量,主要依靠大模型的能力。不过大大改善了用户体验,用户在多轮引导中逐步明确了自己的问题,从而能够得到合适的答案。

5. 微调Embedding句向量模型

这部分主要是为了解决垂直领域特殊词汇,在通用句向量中会权重过大的问题。比如有个通用句向量模型,它在训练中很少见到“SAAS”这个词,无论是文本段和用户query,只要提到了这个词,整个句向量都会被带偏。举个例子:

假如一个用户问的是:我是一个SAAS用户,我希望订购一个云存储服务。由于SAAS的权重很高,使得检索匹配时候,模型完全忽略了后面的那句话,才是真实的用户需求。返回的内容可能是SAAS的介绍、SAAS的使用手册等等。

这里的微调方法使用的数据,是让大模型对语义分割的每一段,形成问答对。用这些问答对构建了数据集进行句向量的训练,使得句向量能够尽量理解垂直领域的场景。

总结

经过这么一套组合拳,系统的回答效果从一开始的完全给不了帮助以及胡说八道,到了现在可以参考的程度。但是与用户实际期望还是相差甚远。

这里不由得让我思考了下整个过程,RAG的本意是想让模型降低幻想,同时能够实时获取内容,使得大模型给出合适的回答。

在严谨场景中,precision比recall更重要。

如果大模型胡乱输出,类比传统指标,就好比recall高但是precision低,但是限制了大模型的输出后,提升了precision,recall降低了。所以给用户造成的观感就是,大模型变笨了,是不是哪里出问题了。

总之,这个balance很难取,我对比了下市面主流的一些基于单篇文档的知识库问答,比如WPS AI,或者海外的ChatDoc。我发现即使基于单篇文档回答,它们在我们垂直领域的文档的幻想问题还是很严重。但是输出的答案不认真看的话,确实挺惊艳。例如问个操作步骤问题,文档压根没这个内容,但是它一步步输出的极其自信。

反正最后就想感慨一下,RAG确实没有想的那么容易。


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
红色日记 军(工)宣队 4.21-26被历史的演进湮没了的希腊科学北航等提出TTP:基于大模型的遥感图像变化检测新网络,性能表现SOTA!李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型AI Agents先行者CAMEL:第一个基于大模型的多智能体框架(古詩詞英譯) 於潜僧绿筠轩 – 蘇軾科研上新 | 大模型推进科研边界;大模型的道德价值对齐;优化动态稀疏深度学习模型;十亿规模向量搜索的高效更新免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!吴恩达最新推出基于大模型的《AI高级检索》课程,限时免费白嫖!对哈马斯与以色列本轮冲突的一些思考站上大模型制高点:我们给不输GPT-4的文心大模型4.0,来了一场技术揭秘小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大玩转摄影魔法|万能创意vlog技巧分享AI公司第四范式IPO上市;雷军王小川联手搞小米大模型;百度发布量子领域大模型;AI新技术90秒识别癌;苹果疯狂购买AI初创公司精彩手绘全解:RAG技术,从入门到精通“肤浅”浅析固定收益 | 从嘉实京东仓储REIT看产权型REITs租约风险AI早知道|Stability AI推出最小模型;国内首个视频大模型通过备案;内蒙古首个AI大模型工业互联网平台发布科研上新 | 第2期:可驱动3D肖像生成;阅读文本密集图像的大模型;文本控制音色;基于大模型的推荐智能体NeurIPS 2023 | AI Agents先行者CAMEL:首个基于大模型的多智能体框架大模型RAG问答技术架构及核心模块回顾:从Embedding、prompt-embedding到Reranker「我在淘天做技术」迈步从头越-阿里妈妈广告智能决策技术的演进之路测试八年|对业务测试人员的一些思考北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型古交在春风中苏醒(上)如何吸引更多的国际投资者?如何为客户赚钱?这场峰会上大佬们有这些思考→击毁“梅卡瓦”的“混合型RPG”,“哈马斯”自制的“亚辛”火箭筒余永定:关于全球供应链效率和安全问题的一些思考基于大模型做电商「内容工厂」,「极睿科技」获顺为B轮融资|36氪首发李航:关于大模型的思考及研究热点【首发】瑞彼加医疗完成千万美元A++轮融资,打造基于微射频技术的多产品技术平台【职发】成为职场社牛的必备法宝 | 来自哈佛大佬 Jashin的Networking技能分享J. Med. Chem. | 复旦大学药学院谢琼副教授/王永辉教授团队发现可用于肿瘤免疫治疗的新型RORγt激动剂候选药物AI早知道|百度推出视频生成模型UniVG;Soul APP上线自研语言大模型;清华大学首个大模型 Debug拆解大语言模型RLHF中的PPO算法
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。