Redian新闻
>
ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

科技

在过去的几个月里,为了探索了 LLM 结合 SDLC、BizDevOps 的可能性,我们(Thoughtworks 开源社区)创建了 ClickPrompt、 AutoDev、DevTi 等一系列的开源项目。从个人的经验来看,未来越来越多的应用将围绕于 LLM@Core 设计,所以我们挖了一个新的坑、新的试验:ArchGuard Co-mate:https://github.com/archguard/comate,欢迎来入坑一起探索和研究。

Why is Co-mate ?

我们发起 Co-mate 项目的原因,可以归于:在 LLM 优先的应用开发时代,掌握相关的开发技能。这些相关的技能包含但是不限于:

  • 探索是否存在更好的交互模?如基于 Chat 的动态 UI(DSL)生成 等。

  • 适用于 JVM 体系下的 LLM 应用开发?如 JVM 版 LangChain、Embedding 等。

  • 如何辅助上下文理解、构建的本地小模型?即 Sentence Transformer + ONNX 的本地处理。

  • 如何设计新一代、适用于 LLM 的软件 API?即如何以确定性的方式与 ArchGuard API 交互。

  • 如何更好地构建上下文,以工程化的方式构建 AI 应用的上下文(即 prompt)?

而出于架构治理的场景,我们则是想探索:

  • 如何让 LLM 解释软件架构给人听?毕竟,让人理解构建都是一件费力的事情。

  • 如何让 LLM 基于代码、分层、依赖关系等,解释架构、业务?

  • 如何让 LLM 更好地理解规范,从文档出发,去设计软件架构?

每个问题都足够的有意思,并且具备一定的业务和技术复杂度,足以让我们掌握基于 LLM 的软件架构所需要考虑的因素。

What is Co-mate ?

作为一个探索性的项目,解释 Co-mate 的用途并不是一件容易的事情。一个架构师的助手能做到什么程度,我们还没有想得足够的清晰 —— 因为我们还没对架构的定义达到一致意见。

但是呢,先让我们看看 Co-mate 当前的处理流程:

从表面上看,基本上和主流的 AI 应用没有区别;从实际代码上来看,和主流的 AI 应用也看不出多大的区别。还是让我们看看两个典型的 Co-mate 场景。

示例 1:介绍一下这个系统

当用户在 Co-mate 中去分析 Co-mate 时,会返回类似于如下的结果:

Co-mate 项目是一个 AI 助手应用程序,使用了 Jetpack Compose、RxJava、DataStore 等一系列相关的库来构建设计和治理工具等功能。该应用还使用了一些第三方库来构建用户界面,如 Coil-Compose、Voyager Navigator 等,以及进行深度学习推理任务,如 Kotlin Deep Learning API、Inference API 等。该应用需要考虑高效的算法和模型推理能力等非功能需求。

对于这个场景下,其数据处理过程如下:

  1. 匹配本地相关的指令(如 “分析系统”)

    1. 如果匹配到,则直接调用 AG API 来构建上下文。

    2. 如果没有匹配到,则调用 LLM 进行选择命令,然后可以调用 AG 原有 API。

  2. 调用 AG API 构建上下文(项目信息、软件依赖信息等)。

  3. 调用 LLM 进行总结,并返回给用户。

所以,我们尝试构建两个新的 API:本地语义分析、(动态)上下文收集 API。

示例 2:API 规范性检查

基于 ArchGuard 的能力,我们挑选的第二个场景是检查 API 是否规范。当你有一个 Controller 里的 API 需要检查是否符合 API 规范时,就可以执行: 检查 API 规范 。

假设你的 API 是: /api/blog/get ,并且已经通过 spec-partitioner (还没有实现)转换了你的 API 规范。

最后,Co-mate 会返回:

API '/api/blog/get' 不符合 URI 构造规范,Rule: uri construction regex: \/api\/[a-zA-Z0-9]+\/v[0-9]+\/[a-zA-Z0-9\/-]+,建议 API 修改为 '/api/blog/v1/get'。

(PS:垃圾 GPT 3.5 Turbo,居然认可了 /get)

所以,当你有了完整的架构规范时,那么就可以进入下一代架构生成:

这也是我们想进一步探索的工作。

How Co-mate works ?

众所周知 GPT 充满了各种不确定性,人们对于 GPT 理解的能力也是不同的。因此,从架构设计的角度来说,我们需要分解 GPT 的原子能力,诸如于总结、分类、提取、翻译、逻辑推理,消除其中的不确定性因素,再由我们的软件封装 API 提供动态能力。

分层架构与 ArchGuard 能力映射

在示例 1 中,我们做的第一件是分解架构与数据按不同的架构元素分析。因为我们对于架构缺乏统一的定义,所以我从 Global 的 slides 找了一个适合于 LLM 理解的分层架构、并且也适用于 ArchGuard 表达。随后,构建了一个不太成功的分层与所需要的上下文数据映射:

于是在示例 1 里,我们给的 prompt 模板是:

{xxx} 项目是一个 {channel type} 应用程序,使用了 Jetpack Compose、{xxx} 和一系列相关的库来构建 {xxx} 等功能。该应用还使用了一些第三方库来构建用户界面 {xxx},以及进行 {xxx} 等任务。该应用需要考虑 {xxx} 等非功能需求。

在这个 prompt 里,它依赖于两个主要数据:项目介绍与项目的技术栈(依赖信息)。技术栈可以直接从 ArchGuard SCA 中获取,而项目介绍则是从 README.md 中解析得到的。

LLM 与 Co-mate API 的能力映射

在示例 2 中,我们做的第一件事是分解 API 文档, 按不同 LLM 的原子能力进行分解。构建出四种不同的原子能力:

  • 推理出适用于 URI 的正则表达式。

  • 推理出一个合理的 example。

  • 提取一些 checklist,诸如于状态码、HTTP Action 等。

  • 将剩下的不确定性内容,扔到一起。

如下图所示:

在右侧,我们则构建了一个 Kotlin Typesafe DSL,以动态的加载到系统中(未来),每一个函数对应到一个 Rule。

  1. rest_api {

  2. uri_construction {

  3. rule("/api\\/[a-zA-Z0-9]+\\/v[0-9]+\\/[a-zA-Z0-9\\/\\-]+")

  4. example("/api/petstore/v1/pets/dogs")

  5. }

  6. http_action("GET", "POST", "PUT", "DELETE")

  7. status_code(200, 201, 202, 204, 400, 401, 403, 404, 500, 502, 503, 504)

  8. security("""Token Based Authentication (Recommended) Ideally, ...""")

  9. misc("""....""")

  10. }

作为一个 demo,这个 DSL 依旧具备很大的完善空间。其中比较有意思的部分在于 security 和 misc 部分,这些不确定性正好适用于 LLM 进行推理。所以,在执行对应的 misc、security 规则检查时,会再调用 GPT 来检查:

以将其中的确定性与不确定性更好的结合,进而充分地利用了 LLM 与 ArchGuard 的能力,并减少对 GPT 的消耗。

Welcome join us

下图是,当前 ArchGuard Co-mate 的所有模块:

简单介绍如下:

  • Comate-Core 提供了 CLI 和 GUI 所需要的基本能力,

  • Meta-Action 则是定义了基本的 Action

  • Architecture 定义了什么是 Co-mate 理解的架构

  • LLM-Core 则是对于 LLM 的调用 。

  • Spec Partitioner 则是计划对于规范的提取与自动生成(当前都是手动 prompt)

而我们在采用 JVM 技术栈的时候,遇到了几个坑 KotlinDL 和 Deep Java Library 都是通过 JNI/Rust 的方式调用了 HuggingFace Tokenizers、ONNX API,导致了应用在 macOS 下 crash。而一种理想的方式应该是通过 JSON RPC 的方式来调用,所以我们计划使用 Rust 构建一个新的模块:Comate Agent。

所以,如果你对使用 JVM 技术栈来开发 AI 应用,对 Rust 技术栈来开发 AI 应用,欢迎来加入我们。

总结

该文介绍了 Thoughtworks 开源社区创建的一系列开源项目,探索了大语言模型与架构治理、架构设计的可能性。其中,ArchGuard Co-mate 是一个探索性的项目,旨在探索架构师助手的能力,包括本地语义分析、动态上下文收集 API、架构规范检查等。文章还介绍了分层架构与 ArchGuard 能力映射、LLM 与 Co-mate API 的能力映射等内容。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
蛋白设计新时代!Science: 开发出基于强化学习的蛋白结构设计方法破局之作:首部开源 AIGC 软件工程应用电子书《构筑大语言模型应用:应用开发与架构设计》大型语言模型专场上线!四位AI新青年直播讲解MiniGPT-4、LLaVA、Gorilla以及大型语言模型Token危机今日云讲堂 | 李想:基于大语言模型构建智能AgentMIT团队打造未来实验室:大语言模型与人类优势互补,全程紧密配合大语言模型会偷懒?新研究:上下文太长,模型会略过中间不看 | 本周论文推荐剑桥、腾讯AI Lab等提出大语言模型PandaGPT:一个模型统一六种模态BLIP-2、InstructBLIP稳居前三!十二大模型,十六份榜单,全面测评「多模态大语言模型」红楼梦大学申请篇 第9章学习生成式大语言模型,东北大学自然语言处理实验室有一堂课大模型竞争突然升级!亚马逊 CEO 亲自监督、组建新的核心技术团队,集中优势资源打造“最具野心”的大语言模型大语言模型的多语言机器翻译能力分析T晨,男 ,陕西师范大学,软件研发与架构设计,年入税前40万+,95年,高181,深圳大语言模型友好的 API:借助集体智慧构建更好的软件架构大型语言模型与知识图谱协同研究综述:两大技术优势互补大语言模型做数据助手,浙大Data-Copilot高效调用、处理、可视化数据毛泽东与蒙哥马利:一次关于继承人的长谈规范即治理函数:LLM 赋能的软件架构治理与架构设计性能超越GPT-4!谷歌推出大语言模型PaLM 2,全面升级Bard反击ChatGPT|环球科学要闻ChatGPT提示词方法实战:探索一个系统架构设计的案例微软发布 Guidance 语言,用于控制大语言模型一文速览大语言模型在分子领域中的探索ChatGPT的朋友们:大语言模型经典论文一次读到吐Duke University 参观记商汤大模型全面升级!「商量SenseChat 2.0」大语言模型疯狂上分以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南最近几部剧的观感 - 生活充满了哲学关于高可用、高性能、可扩展架构设计的14大要点详解 | 极客时间大模型与知识图谱融合?爱数推出基于大模型的领域认知智能产品与方案暴雪旗下游戏登陆Steam,苹果或研发大语言模型,微信可绑定国际信用卡,上汽与奥迪共同研发电动汽车平台,这就是今天的其他大新闻!四月的原野Prompt解锁语音语言模型生成能力,SpeechGen实现语音翻译、修补多项任务关于大型语言模型的争论和局限邀请您参加IEEE网络技术论坛:基于大型语言模型的组合推理空巢后是否要挑战自己?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。