Redian新闻
>
AnalyticDB(ADB)+LLM:构建AIGC时代下企业专属Chatbot

AnalyticDB(ADB)+LLM:构建AIGC时代下企业专属Chatbot

科技

阿里妹导读


如何基于向量数据库+LLM(大语言模型),打造更懂你的企业专属Chatbot?

为什么Chatbot需要大语言模型+向量数据库?

这个春天,最让人震感的科技产品莫过于ChatGPT的横空出世,通过大语言模型(LLM)让人们看到了生成式AI能实现到和人类语言高度相仿的语言表达能力,AI不再遥不可及而已经可以走进人类的工作和生活,这使得沉寂一段时间的AI领域重新焕发了能量,无数的从业者正趋之若鹜地投身于下一个改变时代的机会;据不完全统计,在短短的4个月时间内,美国已经完成了超4000笔的生成式AI的行业融资。生成式AI已经成为了资本和企业都无法忽视的下一代的技术密码,而其对于底层的基础设施能力提供了更高的要求。
大模型能够回答较为普世的问题,但是若要服务于垂直专业领域,会存在知识深度和时效性不足的问题,那么企业如何抓住机会并构建垂直领域服务?目前有两种模式,第一种是基于大模型之上做垂直领域模型的Fine Tune,这个综合投入成本较大,更新的频率也较低,并不适用于所有的企业;第二种就是在向量数据库中构建企业自有的知识资产,通过大模型+向量数据库来搭建垂直领域的深度服务,本质是使用数据库进行提示工程(Prompt Engineering)。以法律行业为例,基于垂直类目的法律条文和判例,企业可以构建垂直领域的法律科技服务。如法律科技公司Harvey,正在构建“律师的副驾驶”(Copilot for Lawyer)以提高法律条文的起草和研究服务。
将企业知识库文档和实时信息通过向量特征提取然后存储到向量数据库,结合LLM大语言模型可以让Chatbot(聊天机器人)的回答更具专业性和时效性,构建企业专属Chatbot。下面视频是一个基于大语言模型+AnalyticDB for PostgreSQL(以下简称ADB-PG,内置向量数据库能力)让Chatbot更好地回答时事问题Demo:
本文接下来将重点介绍基于大语言模型(LLM)+向量数据库打造企业专属Chatbot的原理和流程,以及ADB-PG构建该场景的核心能力。

AnalyticDB PostgreSQL支持向量数据检索能力,可以支持企业用户一站式搭建Chatbot专属知识库。目前开放1个月【免费试用】规格,点击文末“阅读原文”,即刻开启体验!

什么是向量数据库?

在现实世界中,绝大多数的数据都是以非结构化数据的形式存在的,如图片,音频,视频,文本等。这些非结构化的数据随着智慧城市,短视频,商品个性化推荐,视觉商品搜索等应用的出现而爆发式增长。为了能够处理这些非结构化的数据,我们通常会使用人工智能技术提取这些非结构化数据的特征,并将其转化为特征向量,再对这些特征向量进行分析和检索以实现对非结构化数据的处理。因此,我们把这种能存储,分析和检索特征向量的数据库称之为向量数据库。

向量数据库对于特征向量的快速检索,一般会采用构建向量索引的技术手段,我们通常说的向量索引都属于ANNS(Approximate Nearest Neighbors Search,近似最近邻搜索),它的核心思想是不再局限于只返回最精确的结果项,而是仅搜索可能是近邻的数据项,也就是通过牺牲可接受范围内的一点精确度来换取检索效率的提高。这也是向量数据库与传统数据库最大的差别。

为了将ANNS向量索引更加方便的应用到实际的生产环境中,目前业界主要有两种实践方式。一种是单独将ANNS向量索引服务化,以提供向量索引创建和检索的能力,从而形成一种专有的向量数据库;另一种是将ANNS向量索引融合到传统结构化数据库中,形成一种具有向量检索功能的DBMS。在实际的业务场景中,专有的向量数据库往往都需要和其他传统数据库配合起来一起使用,这样会造成一些比较常见的问题,如数据冗余、数据迁移过多、数据一致性问题等,与真正的DBMS相比,专有的向量数据库需要额外的专业人员维护、额外的成本,以及非常有限的查询语言能力、可编程性、可扩展性和工具集成。而融合了向量检索功能的DBMS则不同,它首先是一个非常完备的现代数据库平台,能满足应用程序开发人员的数据库功能需求;然后它集成的向量检索能力一样也可以实现专有的向量数据库的功能,并且使向量存储和检索继承了DBMS的优秀能力,如易用性(直接使用SQL的方式处理向量)、事务、高可用性、高可扩展性等等。
本文介绍的ADB-PG即是具有向量检索功能的DBMS,在包含向量检索功能的同时,还具备一站式的数据库能力。在介绍ADB-PG的具体能力之前,我们先来看一下Demo视频中Chatbot的创建流程和相关原理。

LLM大语言模型+ADB-PG:打造企业专属Chatbot

案例-本地知识问答系统

对于前面Demo视频结合大语言模型LLM和ADB-PG进行时事新闻点评解答的例子,让LLM回答"通义千问是什么"。可以看到,如果我们让LLM直接回答,得到的答案没有意义,因为LLM的训练数据集里并不包含相关的内容。而当我们使用向量数据库作为本地知识存储,让LLM自动提取相关的知识之后,其正确地回答了"通义千问是什么"。

同样地,这种方式可以应用于处理文档,PDF,邮件,网络资讯等等尚未被LLM训练数据集覆盖到的内容。比如:

1.结合最新的航班信息和最新的网红打卡地点等旅游攻略资源,打造旅游助手。比如回答下周最适合去哪里旅游,如何最经济实惠的问题。

2.体育赛事点评,时事热点新闻点评,总结。今天谁是NBA比赛的MVP。

3.教育行业,最新的教育热点解读,比如,告诉我什么是AIGC,什么是Stable Diffusion以及如何使用等等。

4.金融领域,快速分析各行业领域金融财报,打造金融咨询助手。

5.专业领域的客服机器人...

实现原理

本地知识问答系统(Local QA System)主要是通过结合了大语言模型的推理能力和向量数据库的存储和检索能力。来实现通过向量检索到最相关的语义片段,然后让大语言模型结合相关片段上下文来进行正确的推理得到结论。在这个过程中主要有两个流程:
a.后端数据处理和存储流程
b.前端问答流程
同时其底层主要依赖两个模块:
1.基于大语言模型的推理模块
2.基于向量数据库的向量数据管理模块

后端数据处理和存储流程

上图黑色的部分为后端的数据处理流程,主要是将我们的原始数据求解embedding,并和原始数据一起存入到向量数据库ADB-PG中。这里你只需要关注上图的蓝色虚线框部分。黑色的处理模块和ADB-PG向量数据库。
  • Step1:先将原始文档中的文本内容全部提取出来。然后根据语义切块,切成多个chunk,可以理解为可以完整表达一段意思的文本段落。在这个过程中还可以额外做一些元数据抽取,敏感信息检测等行为。

  • Step2:将这些Chunk都丢给embedding模型,来求取这些chunk的embedding。

  • Step3:将embedding和原始chunk一起存入到向量数据库中。

前端问答流程

在这个过程中主要分为三个部分 1.问题提炼部分 2.向量检索提取最相关知识 3.推理求解部分。在这里我们需要关注橙色部分。单单说原理可能比较晦涩,我们还是用上面的例子来说明。

Part1 问题提炼

这个部分是可选的,之所以存在是因为有些问题是需要依赖于上下文的。因为用户问的新问题可能没办法让LLM理解这个用户的意图。比如用户的新问题是"它能做什么"。LLM并不知道它指的是谁,需要结合之前的聊天历史,比如"通义千问是什么"来推理出用户需要求解答案的独立问题"通义千问能做什么"。LLM没法正确回答"它有什么用"这样的模糊问题,但是能正确回答"通义千问有什么用"这样的独立问题。如果你的问题本身就是独立的,则不需要这个部分。
得到独立问题后,我们可以基于这个独立问题,来求取这个独立问题的embedding。然后去向量数据库中搜索最相似的向量,找到最相关的内容。这个行为在Part2 Retrieval Plugin的功能中。

Part2 向量检索

独立问题求取embedding这个功能会在text2vec模型中进行。在获得embedding之后就可以通过这个embedding来搜索已经事先存储在向量数据库中的数据了。比如我们已经在ADB-PG中存储了下面内容。我们就可以通过求取的向量来获得最相近的内容或者知识,比如第一条和第三条。通义千问是...,通义千问可以帮助我们xxx。
idContentembeddingdocument
1通义千问是...[0.1, -0.1,0,1]大模型通义千问
2NBA比分 湖人-篮网[0.2,0.1,0.2,-1]NBA今日播报
3
通义千问可以帮助我们xxx [-0.2,0.1,0.2,-1]大模型通义千问
4
AIGC是xxx [0.3,0.1,0.2,-1]AIGC介绍

Part3 推理求解

在获得最相关的知识之后,我们就可以就可以让LLM基于最相关的知识和独立问题来进行求解推理,得到最终的答案了。这里就是结合“通义千问是...”,“通义千问可以帮助我们xxx”等等最有效的信息来回答“通义千问有什么用”这个问题了。最终让GPT的推理求解大致是这样:
基于以下已知信息,简洁和专业的来回答用户的问题。   如果无法从中得到答案,请说"根据已知信息无法回答该问题""没有提供足够的相关信息",不允许在答案中添加编造成分,答案请使用中文。已知内容:   1.阿里巴巴“通义千问”大模型4月11日也亮相云峰会...   2.通义千问可以帮助我们xxx问题:   通义千问有什么用

ADB-PG:内置向量检索+全文检索的一站式企业知识数据库

为什么ADB-PG适合作为Chatbot的知识数据库?ADB-PG是一款具备大规模并行处理能力的云原生数据仓库。它支持行存储和列存储模式,既可以提供高性能的离线数据处理,也可以支持高并发的海量数据在线分析查询。因此我们可以说ADB-PG是一个支持分布式事务、混合负载的数据仓库平台,同时也支持处理多种非结构化和半结构化数据源。如通过向量检索插件实现了对图片、语言、视频、文本等非结构化数据的高性能向量检索分析,对JSON等半结构化数据的全文检索分析。
因此在AIGC场景下,ADB-PG既可以作为一款向量数据库满足其对向量存储和检索的需求,也可以满足其他结构化数据的存储和查询,同时也可以提供全文检索的能力,为AIGC场景下的业务应用提供一站式的解决方案。下面我们将对ADB-PG的向量检索、融合检索和全文检索这三方面的能力进行详细介绍。
ADB-PG向量检索和融合检索功能于2020年首次在公有云上线,目前已经在人脸识别领域得到了非常广泛的应用。ADB-PG的向量数据库继承自数据仓库平台,因此它几乎拥有DBMS的所有好处,如ANSISQL、ACID事务、高可用性、故障恢复、时间点恢复、可编程性、可扩展性等。同时它支持了点积距离、汉明距离和欧氏距离的向量和向量的相似度搜索。这些功能目前在人脸识别、商品识别和基于文本的语义搜索中得到了广泛应用。随着AIGC的爆炸式增长,这些功能为基于文本的Chatbot奠定了坚实的基础。另外,ADB-PG向量检索引擎也使用Intel SIMD指令极其有效地实现了向量相似性匹配。
下面我们用一个具体的例子来说明ADB-PG的向量检索和融合检索如何使用。假设有一个文本知识库,它是将一批文章分割成chunk再转换为embedding向量后入库的,其中chunks表包含以下字段:
字段类型说明
idserial编号
chunkvarchar(1024)文章切块后的文本chunk
intimetimestamp文章的入库时间
urlvarchar(1024)文本chunk所属文章的链接
featurereal[]文本chunk embedding向量
那么对应的建表DDL如下:
CREATE TABLE chunks(    id serial primary key,    chunk varchar(1024),    intime timestamp,    url varchar(1024),    feature real[]);
为了对向量检索进行加速,我们还需要建立一个向量索引:
CREATE INDEX ON chunks USING ann(feature) WITH (dim=1536);
同时为了对向量结构化融合查询提供加速,我们还需要为常用的结构化列建立索引:
CREATE INDEX ON chunks(intime);
在进行数据插入的时候,我们可以直接使用SQL中的insert语法:
INSERT INTO chunks values (default,'xxx','2023-05-04','aaa.bbb.ccc/xxx.pdf',ARRAY[0.1,0.2,0.1,0.3,……0.9]);
在这个例子中,如果我们要通过文本搜索它的来源文章,那么我们就可以直接通过向量检索进行查找,具体SQL如下:
SELECT id,chunk,intime,url FROM chunksORDER BY    feature <-> array[10,2.0,…,1536.0]LIMIT 100;
同样,如果我们的需求是查找最近一个月以内的某个文本的来源文章。那么我们就可以直接通过融合检索进行查找,具体SQL如下:
SELECT id, chunk, intime, url FROM chunks WHERE        intime > '2023-04-01' AND intime <= '2023-05-01' ORDER BY         feature <-> array[10,2.0,…, 1536.0LIMIT 100;
在看完上面的例子之后,我们可以很清楚地发现,在ADB-PG中使用向量检索和融合检索就跟使用传统数据库一样方便,没有任何的学习门槛。同时,我们对向量检索也有针对性地做了很多优化,如向量数据压缩、向量索引并行构建、向量多分区并行检索等等,这里不再详述。
ADB-PG同时也具有丰富的全文检索功能,支持复杂组合条件、结果排名等检索能力;另外对于中文数据集,ADB-PG也支持中文分词功能,能够高效、自定义地对中文文本加工分词;同时ADB-PG也支持使用索引加速全文检索分析性能。些能力同样也可以在AIGC业务场景下得到充分的使用,如业务可以对知识库文档结合上述向量检索和全文检索能力进行双路召回。
知识数据库搜索部分包括传统的关键词全文检索和向量特征检索,关键词全文检索保证查询的精准性,向量特征检索提供泛化性和语义匹配,除字面匹配之外召回和语义匹配的知识,降低无结果率,为大模型提供更加丰富的上下文,有利于大语言模型进行总结归纳。

总结

结合本文前面所提到的内容,如果把满腹经纶的Chatbot比喻成人,那么大语言模型可以看成是Chatbot在大学毕业前从所有书本和各领域公开资料所获得的知识和学习推理能力。所以基于大语言模型,Chatbot能够回答截止到其毕业前相关的问题,但如果问题涉及到特定专业领域(相关资料为企业组织专有,非公开)或者是新出现的物种概念(大学毕业时尚未诞生),仅靠在学校的知识所得(对应预训练的大语言模型)则无法从容应对,需要具备毕业后持续获得新知识的渠道(如工作相关专业学习资料库),结合本身的学习推理能力,来做出专业应对。同样的Chatbot需要结合大语言模型的学习推理能力,和像ADB-PG这样包含向量检索和全文检索能力的一站式数据库(存储了企业组织专有的以及最新的知识文档和向量特征),在应对问题时具备基于该数据库中的知识内容来提供更专业更具时效性的回答。
了解更多,请在公众号后台回复关键词【向量】加入探讨群。

免费试用“AnalyticDB PostgreSQL向量数据库”,快来领取!


阿里云推出“飞天免费试用计划”,面向国内1000万云上开发者。AnalyticDB PostgreSQL支持向量数据检索能力,助力企业用户一站式搭建Chatbot专属知识库,目前开放【免费试用】1个月规格。

快点击 “
阅读原文” 领用免费试用产品,即刻开启云上实践之旅!

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一碗鸡汤黄仁勋就是AIGC时代的摩尔慕尼黑上海分析生化展 | analytica China PP会员卡尊享九大专属权益!AIGC时代,企业如何面对机遇与挑战? | AIGC应用实操系列第八期如何构建大模型时代下的智能算力?| Q推荐Belmont公私校大对比:Belmont Hill vs Belmont High首个中文医学知识LLM:真正的赛华佗—华驼(HuaTuo)阿里巴巴所有产品未来将接入「通义千问」,将推企业专属大模型|最前线复旦大学:AIGC时代的多模态知识工程思考与展望苹果首推AR头显:AIGC时代的新iPhone?LLM底座模型:LLaMA、Palm、GLM、BLOOM、GPT结构对比在AIGC时代,数据价值将如何释放?|量子位·视点 x 北极九章When RS Meets LLM:推荐系统如何从大语言模型中取长补短?面向应用视角的全面综述《珊瑚頌》燧原科技创新研究院院长、首席科学家姚建国教授:构建基础算力底座,推动国产算力发展|WISE2023颠覆AIGC产业发展峰会Agustín Hernández:中美洲建筑背景下的未来主义巨构AIGC时代,数据库将受到哪些冲击?| 直播推荐3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow影视业仍在观望时,后期和动画公司已跑步进入AIGC时代?港科大开源LMFlow!3090单卡5小时,每个人都能训练专属ChatGPT北大、西湖大学等开源「裁判大模型」PandaLM:三行代码全自动评估LLM,准确率达ChatGPT的94%创新驱动、领导力培养:新经济时代下企业领袖的成长路径行业观察|2023领航者高端论坛,共话AIGC时代产业变革之路LLM:“离开红圈后,月薪6位数,爽翻!”“学大牛”,学术科研专属ChatGPT来了!怎么开始学佛(十七)知非即舍天降大任于斯人,哪知斯人是虫昆AIGC时代,如何在IPU上部署经济且高效的GPT模型?巴黎市长将重修Châtelet 广场以方便行人AIGC时代,前端低代码平台的实践与挑战 | 6月15日TF109报名2023建筑业工程项目管理数字化研究报告:构建以BIM为中心的1+3工程项目管理数字化作业体系|甲子光年智库【城事】巴黎市长将重修Châtelet 广场以方便行人知道创宇李伟辰:SecGPT,AIGC时代全流程业务风险治理【𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶无痕内裤】49元三条!巨巨巨好穿 !!简直就是辣妹顶配,食品级冰箱收纳盒【一日团】《定风波》瑾沐篇(33):以牙还牙
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。