Redian新闻
>
CoUnit:探索 LLM 即团队接口人,释放平台团队生产力

CoUnit:探索 LLM 即团队接口人,释放平台团队生产力

科技

在那篇《LLM as Co-integrator:重塑团队间交互,持续改进信息对齐》里,我们说道,为了更好的利用 AIGC 提升效能,我们的第二个阶段应该是:让 LLM 做一些协同工作,诸如于:构建多场景知识问答,降低知识检索成本、设计团队 API,打造智能助理。

于是,我们着手构建了 CoUnit,以探索 LLM 作为团队接口人,凑近团队间协同。我们参考了 Bleep 语义搜索引擎的设计,使用了 Rust、Sentence Transformer、Onnx 构建了本地化离线的低成本的向量化与语义搜索能力,GitHub:https://github.com/unit-mesh/co-unit

先看视频 demo:

我们已经在 AutoDev 中集成了 CoUnit,只需要更新您的 AutoDev 插件到 1.2.1 版本即可。

Why CoUnit?

在过去的几个月里,有大量的企业、团队在构建自己的智能客服、问答 AI 等等。回到软件开发来说,我们或许也需要一个类似的问答 AI,至少它会比 FAQ 更快、它会更加的友好。但是,如何让这样的 AI 问答应用更有价值呢?

一、从团队拓扑思考价值

我们应该思考:

  • 哪些角色花费了大量的时间在集成的工作?

  • 哪些知识(文档、API)是可以部分被查看的?

  • 哪些团队包含了大量的组织所需要的知识?

再回到先前我们对于 AI4SDCL(AI 应用于软件开发领域)的探索,对于有大量集成工作的团队,只有构建 LLM as Integrator 的能力,才能帮助这个团队释放生产力。于是,结合团队拓扑的思想,我们会发现赋能型团队与平台团队是最需要这一类的工具。

赋能团队:由特定技术领域(如 DevOps、持续交付、自动化测试等)或者产品领域的专家组成,赋能给产品导向团队,提供工具、实践、框架、技术栈等方面的建议和支持。如『技术咨询团队』便是其中的一类,在国内有华为的软件教练,腾讯的敏捷教练等。

平台团队:向产品导向团队交付能高度自治的工作模式。他们向开发团队提供自服务的 API、工具、知识、服务和支持,典型的是各类的基础设施平台,如基础设施代码化的云原生相关的技术平台。

围绕于这两种类型的团队,构建跨团队的知识问答 AI 能更好辅助这些团队。

二、看不见的 Team API

在现实的软件开发中,我们一直要面临团队间的依赖关系问题。除了文档、wiki 等,还有上线日程安排和优先级问题,他们都会在一定程度上减缓交付流程。特别是,为了解决团队间的依赖问题,开发人员需要约定拉通会议的时间,也会拉慢团队的交付节奏。除此,我们还可以尽可能清晰地提供信息和团队的访问方式,以最大程度地减轻其他人的认知负担。

为此,在《团队拓扑》一书中,便提倡构建 Team API 来解决上述的问题,即提供文档、wiki、以及非敏感的代码,以及路线图、沟通偏好等等。而这些东西正好非常适合结合 LLM 来解决,即通过 LLM 来分析其他团队的需求,并根据知识库、开放 API 等信息来回答用户。

顺带一提,不同的团队可能更喜欢以不同的时间尺度(诸如两周一迭代、什么时候发布上线等等)工作,而这些则可以考虑在下一个 AI4SDLC 阶段来解决。

CoUnit 是什么?

简单来说:

CoUnit,一个基于 LLM 的虚拟团队接口人(Team API),通过向量化文档、知识库、SDK和 API 等,结合 LLM 智能化团队间对接与协作。

由于 HuggingFace 使用 Rust 语言构建了一系列的 AI 基础设施,加上开源的 Bleep 代码搜索引擎使用的是 Rust 语言,所以我们也使用 Rust 构建了一个本地语义化的代码搜索服务 —— 借助 Sentence Transformers 在本地进行向量化和搜索,无需联网。

基于 CoUnit,你可以进行:

  • 语义化的代码搜索

  • 语义化的 OpenAPI 搜索

  • 语义化的 Http API 搜索

  • 语义化的文档搜索

  • ……

当然了,未来还可以加入更多的类型。从技术难度来说,这些并不是主要问题,实现功能一点也不难。难点是,如何提升搜索的精准度?,诸如于:如何结合好中文、领域专有名词进行搜索?

CoUnit 是如何工作的?

在使用 CoUnit 之前,我们需要准备好一系列的原数据,诸如于代码 API 等等。于是,我们在 CoUnit 实现了一个 ArchGuard 的服务端 API,它可以直接接受由 ArchGuard 上传的数据,并存储到向量数据库中。随后,我们就可以在 CoUnit 客户端使用,诸如于 AutoDev。

总体工作过程如下:

现有流程相对比较复杂

考虑到代码相关的一系列元素结构化数据,如文档、架构、API 定义等等,所以我们并不需要使用 OpenAI 来进行向量化,采用 Sentence Transformers 就可以实现语义文本相似性、语义搜索等功能。

CoUnit 工作过程示例

使用的交互过程如下:

  1. 通过 API 向 CoUnit 提交用户的任务,诸如于:商户申请单(merchant order)查询

  2. API 将会返回对应的 prompt,由调用方调用对应的 LLM 生成分析结果。

  3. 如下是其中的一个分析结果示例:

  1. {

  2. "domain": "merchant",

  3. "query": "merchant: query merchant order",

  4. "natureLangQuery": "商户申请单查询",

  5. "hypotheticalDocument": "GET /api/merchant/order/query?order_id=(order_id)"

  6. }

4.根据上述的分析结果,分别调用 CoUnit 的分析引擎,即:英语语言查询、原生自然语言、假设性文档查询三种结果

5.由应用分析决定接下来的操作。

小结

对于 LLM 协作跨平台协作来说,CoUnit 更多的是提供一种新的可能性,如果你对用 Rust 开发 AI 应用也有兴趣,欢迎来加入我们:https://github.com/unit-mesh/co-unit 。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
陈丹琦新作:一个LLM的评估基准LLMBarWeibo Rolls Out Community Notes to Combat MisinformationLight and Shadow-17 One roll of forever stampsGPT-4,Llama2,ChatGLM2,PaLM2共聚一堂 | LLM Day @KDD 20230.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性勇士队接近与WNBA引入球队达成合作陆生访台团抵桃园机场,奥运冠军丁宁亮相全文 | 广东数字政府2.0:探索公共数据资产化管理,探索建立“数据海关”,完善数据交易监管机制年轻国脚首秀很兴奋:放平心态,做好自己Calm-Down Corners是什么?如何在家创建一个舒适的Calm-Down Corners?快来获取灵感吧!与自己和解的3个方式:放平心态、放慢脚步、放低期待新型威胁:探索 LLM 攻击对网络安全的冲击Continuous Batching:解锁LLM潜力!让LLM推断速度飙升23倍,降低延迟!BELLE-7B-1M逆袭ChatGLM?10B量级开源中文对话LLM,谁成常识问答任务的黑马?PromptScript:轻量级 DSL 脚本,加速多样化的 LLM 测试与验证GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会冷却的不止季节(84)— 异味𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶内衣裤,软弹有度,上身0束缚~小思考 |放平心态晨跑---康教授对我大铁的回忆LLM综述全新出炉:51页论文带你盘点LLM领域专业化技术LLM as Co-pilot:AutoDev 1.0 发布,开源全流程 AI 辅助编程明晚一起来讨论自己孩子的体育道路吧斯坦福NLP提出EFT:如何不实际微调而“假装”微调了LLM?LLM 全景图 (The Landscape of LLM)6.7k Star量的vLLM出论文了,让每个人都能轻松快速低成本地部署LLM服务下架刀郎歌曲?知名音乐播放平台回应马英九基金会公布陆生访台团行程​小红书回应旅游搭子涉黄事件;广州落地“认房不认贷”;华为Mate60标准版开启预售;微信表情开放平台支持单个表情投稿丨邦早报新疆建设兵团之滔天巨案【转】DreamLLM:多功能多模态大型语言模型,你的DreamLLM~轰20问世最多生产多少架?歼20最多生产500架,运20最多生产300架谷歌如何释放和衡量开发人员的生产力瞭望|夯实提升中国-东盟开放平台首篇!Point-In-Context:探索用于3D点云理解的上下文学习
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。