Redian新闻
>
CoUnit:探索 LLM 即团队接口人,释放平台团队生产力

CoUnit:探索 LLM 即团队接口人,释放平台团队生产力

科技

在那篇《LLM as Co-integrator:重塑团队间交互,持续改进信息对齐》里,我们说道,为了更好的利用 AIGC 提升效能,我们的第二个阶段应该是:让 LLM 做一些协同工作,诸如于:构建多场景知识问答,降低知识检索成本、设计团队 API,打造智能助理。

于是,我们着手构建了 CoUnit,以探索 LLM 作为团队接口人,凑近团队间协同。我们参考了 Bleep 语义搜索引擎的设计,使用了 Rust、Sentence Transformer、Onnx 构建了本地化离线的低成本的向量化与语义搜索能力,GitHub:https://github.com/unit-mesh/co-unit

先看视频 demo:

我们已经在 AutoDev 中集成了 CoUnit,只需要更新您的 AutoDev 插件到 1.2.1 版本即可。

Why CoUnit?

在过去的几个月里,有大量的企业、团队在构建自己的智能客服、问答 AI 等等。回到软件开发来说,我们或许也需要一个类似的问答 AI,至少它会比 FAQ 更快、它会更加的友好。但是,如何让这样的 AI 问答应用更有价值呢?

一、从团队拓扑思考价值

我们应该思考:

  • 哪些角色花费了大量的时间在集成的工作?

  • 哪些知识(文档、API)是可以部分被查看的?

  • 哪些团队包含了大量的组织所需要的知识?

再回到先前我们对于 AI4SDCL(AI 应用于软件开发领域)的探索,对于有大量集成工作的团队,只有构建 LLM as Integrator 的能力,才能帮助这个团队释放生产力。于是,结合团队拓扑的思想,我们会发现赋能型团队与平台团队是最需要这一类的工具。

赋能团队:由特定技术领域(如 DevOps、持续交付、自动化测试等)或者产品领域的专家组成,赋能给产品导向团队,提供工具、实践、框架、技术栈等方面的建议和支持。如『技术咨询团队』便是其中的一类,在国内有华为的软件教练,腾讯的敏捷教练等。

平台团队:向产品导向团队交付能高度自治的工作模式。他们向开发团队提供自服务的 API、工具、知识、服务和支持,典型的是各类的基础设施平台,如基础设施代码化的云原生相关的技术平台。

围绕于这两种类型的团队,构建跨团队的知识问答 AI 能更好辅助这些团队。

二、看不见的 Team API

在现实的软件开发中,我们一直要面临团队间的依赖关系问题。除了文档、wiki 等,还有上线日程安排和优先级问题,他们都会在一定程度上减缓交付流程。特别是,为了解决团队间的依赖问题,开发人员需要约定拉通会议的时间,也会拉慢团队的交付节奏。除此,我们还可以尽可能清晰地提供信息和团队的访问方式,以最大程度地减轻其他人的认知负担。

为此,在《团队拓扑》一书中,便提倡构建 Team API 来解决上述的问题,即提供文档、wiki、以及非敏感的代码,以及路线图、沟通偏好等等。而这些东西正好非常适合结合 LLM 来解决,即通过 LLM 来分析其他团队的需求,并根据知识库、开放 API 等信息来回答用户。

顺带一提,不同的团队可能更喜欢以不同的时间尺度(诸如两周一迭代、什么时候发布上线等等)工作,而这些则可以考虑在下一个 AI4SDLC 阶段来解决。

CoUnit 是什么?

简单来说:

CoUnit,一个基于 LLM 的虚拟团队接口人(Team API),通过向量化文档、知识库、SDK和 API 等,结合 LLM 智能化团队间对接与协作。

由于 HuggingFace 使用 Rust 语言构建了一系列的 AI 基础设施,加上开源的 Bleep 代码搜索引擎使用的是 Rust 语言,所以我们也使用 Rust 构建了一个本地语义化的代码搜索服务 —— 借助 Sentence Transformers 在本地进行向量化和搜索,无需联网。

基于 CoUnit,你可以进行:

  • 语义化的代码搜索

  • 语义化的 OpenAPI 搜索

  • 语义化的 Http API 搜索

  • 语义化的文档搜索

  • ……

当然了,未来还可以加入更多的类型。从技术难度来说,这些并不是主要问题,实现功能一点也不难。难点是,如何提升搜索的精准度?,诸如于:如何结合好中文、领域专有名词进行搜索?

CoUnit 是如何工作的?

在使用 CoUnit 之前,我们需要准备好一系列的原数据,诸如于代码 API 等等。于是,我们在 CoUnit 实现了一个 ArchGuard 的服务端 API,它可以直接接受由 ArchGuard 上传的数据,并存储到向量数据库中。随后,我们就可以在 CoUnit 客户端使用,诸如于 AutoDev。

总体工作过程如下:

现有流程相对比较复杂

考虑到代码相关的一系列元素结构化数据,如文档、架构、API 定义等等,所以我们并不需要使用 OpenAI 来进行向量化,采用 Sentence Transformers 就可以实现语义文本相似性、语义搜索等功能。

CoUnit 工作过程示例

使用的交互过程如下:

  1. 通过 API 向 CoUnit 提交用户的任务,诸如于:商户申请单(merchant order)查询

  2. API 将会返回对应的 prompt,由调用方调用对应的 LLM 生成分析结果。

  3. 如下是其中的一个分析结果示例:

  1. {

  2. "domain": "merchant",

  3. "query": "merchant: query merchant order",

  4. "natureLangQuery": "商户申请单查询",

  5. "hypotheticalDocument": "GET /api/merchant/order/query?order_id=(order_id)"

  6. }

4.根据上述的分析结果,分别调用 CoUnit 的分析引擎,即:英语语言查询、原生自然语言、假设性文档查询三种结果

5.由应用分析决定接下来的操作。

小结

对于 LLM 协作跨平台协作来说,CoUnit 更多的是提供一种新的可能性,如果你对用 Rust 开发 AI 应用也有兴趣,欢迎来加入我们:https://github.com/unit-mesh/co-unit 。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Continuous Batching:解锁LLM潜力!让LLM推断速度飙升23倍,降低延迟!冷却的不止季节(84)— 异味勇士队接近与WNBA引入球队达成合作BELLE-7B-1M逆袭ChatGLM?10B量级开源中文对话LLM,谁成常识问答任务的黑马?LLM 全景图 (The Landscape of LLM)陈丹琦新作:一个LLM的评估基准LLMBar0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性DreamLLM:多功能多模态大型语言模型,你的DreamLLM~新疆建设兵团之滔天巨案【转】GPT-4,Llama2,ChatGLM2,PaLM2共聚一堂 | LLM Day @KDD 2023晨跑---康教授对我大铁的回忆​小红书回应旅游搭子涉黄事件;广州落地“认房不认贷”;华为Mate60标准版开启预售;微信表情开放平台支持单个表情投稿丨邦早报首篇!Point-In-Context:探索用于3D点云理解的上下文学习马英九基金会公布陆生访台团行程Light and Shadow-17 One roll of forever stampsSpringBoot 接口快速开发神器(接口可视化界面实现)陆生访台团抵桃园机场,奥运冠军丁宁亮相𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶内衣裤,软弹有度,上身0束缚~斯坦福NLP提出EFT:如何不实际微调而“假装”微调了LLM?LLM as Co-pilot:AutoDev 1.0 发布,开源全流程 AI 辅助编程谷歌如何释放和衡量开发人员的生产力下架刀郎歌曲?知名音乐播放平台回应瞭望|夯实提升中国-东盟开放平台全文 | 广东数字政府2.0:探索公共数据资产化管理,探索建立“数据海关”,完善数据交易监管机制轰20问世最多生产多少架?歼20最多生产500架,运20最多生产300架Calm-Down Corners是什么?如何在家创建一个舒适的Calm-Down Corners?快来获取灵感吧!GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会新型威胁:探索 LLM 攻击对网络安全的冲击明晚一起来讨论自己孩子的体育道路吧USB-C 接口成主流,苹果其它产品更新USB-C 接口时间曝光LLM综述全新出炉:51页论文带你盘点LLM领域专业化技术PromptScript:轻量级 DSL 脚本,加速多样化的 LLM 测试与验证6.7k Star量的vLLM出论文了,让每个人都能轻松快速低成本地部署LLM服务首个国内《芯粒互联接口标准》Chiplet接口测试成功,北极雄芯公布新进展Weibo Rolls Out Community Notes to Combat Misinformation
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。