Redian新闻
>
企业级 AI 研发的正确姿势:开源 LLM + LoRA轻松提效

企业级 AI 研发的正确姿势:开源 LLM + LoRA轻松提效

科技

本文的阅读成本很低,不需要大量地先验 AI 知识。作为纯纯的软件工程师,我们发现:学懂基本的 AI Prompt 原理与模式,不懂 LLM (大语言模型)算法,你也可以轻易驾驭 LoRA (Low-Rank Adaptation of LLM,即插件式的微调)训练。

在构建了 ClickPrompt、ChatFlow 之类的 Prompt 管理平台之后,我们开始探索适合于企业的 AI 编程提效方式。于是,我和我的同事 @tianweiliu 分别对 Meta 公司开源的 Llama 和清华大学开源的 GLM 进行 LoRA 训练。

在花费了上千元(成本主要在 OpenAI API 调用和云 GPU —— 感谢 AIOS club 和 OpenBayes 赞助)的云费用之后,我们训练了 3 个 Lora:详细需求(用户故事)生成(3k 数据)、测试代码生成(8k 数据)、代码生成(20k 数据)。

仅就结论来说:LoRA 毫无疑问可以满足大部分的需求,特别是可以解决跨部门的数据共享问题。但是,考虑到数据的 GIGO(垃圾进,垃圾出)的基本现象,如何构建高质量的数据是一大挑战?

Unit Mesh AI 辅助编程的试验

详细的训练步骤和数据见:https://github.com/unit-mesh/unit-minions

对于 LoRA 和 Prompt 来说,工程师完全可以把 LLM(大语言模型) 当成黑盒,当成一个函数,反正现阶段的 AI 专家也无法解释:为什么这样的输入会产出这样的结果。

所以,我们只需要提供对应输入,就会产出对应的输出。而要提供这样的机制,则需要软件开发流程足够的标准化。

Unit Mesh (https://github.com/unit-mesh) 是我们思考和设计的适合于 AI 编程的架构范式。在设计 LoRA 训练的初期,我们考虑的是实现先复现 ChatGPT + ChatFlow 的设计场景:

  1. 需求细化。AI 辅助将模糊的需求转变为的需求设计,比如 “注册” 功能,生成为:”作为一个用户 xxx,填入用户名、密码信息等等,接着由人类去检查和完善。

  2. 代码生成。AI 辅助将详细的需求设计翻译为目标的代码,再接着由人类去检查和完善。

  3. 测试生成。AI 辅助根据生成的代码生成对应的测试代码,再接着由人类去检查和完善。

最后,只需要确保生成的代码是可以像代码单元运行,那么就可以用来作为 AI 编程的 Copilot。

于是,在三个 LoRA 里,我们使用非常简单的 instruct,并尽可能提供,以便于集成到工具中使用。如下:

  • 需求细化。instruction:create Agile user story for following topic,input:功能的基本信息

  • 代码生成。instruction:Implement the method xxx,input:类的基本信息

  • 测试生成。instruction:Write test for follow code,input:类的基本信息

从测试结果来看,随着数据量的增多,比如 20000 个代码用例比 10000 个代码用例更加的 “聪明”。下图是其中的一个对比结果:

同样的,对于需求细化或者测试代码生成来说,也是如此。

数据的挑战:标准化流程 + 规范化 + 丰富的数据

所以,在有了上述的经验之后,就会发现 LLM 的 Lora 训练并不是我们的难点,我们要面向的主要挑战是:标准化流程 + 规范化 + 丰富的数据。

挑战 1:标准化流程

在上述的 Unit Mesh 试验里,为了训练的结果更加准确,我们详细拆分了软件开发的步骤,以确保每一步生成的是准确,进而驱动出准确的结果。如下是我们拆分的一小部分细流程的示例:

  • designrestfulapi

  • designplantumljava_datastructure

  • implementationspringcontroller

  • implementationcontrollertest

  • implementationspringservice

  • ….

我们需要拆分到每一个尽可能小的步骤,在每一个细化的步骤里,喂入数据,才会让 AI 产生最大的复读机效果。

挑战 2:规范化

在代码生成的第一版本 10000 个数据的 LoRA 里,我们先测试了一个简单的 Blog API 生成:

  1. @RestController

  2. @RequestMapping("/blog")

  3. public class PostController {

  4. @Autowired

  5. private BlogService blogService;

  6. @RequestMapping(value = "/createPost", method = RequestMethod.POST)

  7. @ResponseBody

  8. public BlogPostDto createPost(@RequestBody BlogPostDto blogPostDto) {

  9. BlogPost blogPost = blogService.createPost(blogPostDto);

  10. return new BlogPostDto(blogPost.getId(), blogPost.getTitle(), blogPost.getContent());

  11. }

  12. }

这里生成的 URI 是 createPost 不符合 RESTful 规范,而后我们提升到了 20000 个数据之后,这个问题解决了。从模式上来说,LLM 会学习大部分的习惯,好习惯会留下来,坏习惯也会被继承。也因此,一旦源数据的代码、需求说明不规范那么训练出来的数据就会有问题。也就是所谓的垃圾进、垃圾出。

挑战 3:丰富的数据

在需求细化的 LoRA 里,我们通过 OpenAI 的 Davinci 模型,分解了 186 个场景下的应用,进而训练了 3400+ 的用户故事(穷 + 无底洞,所以量级少一点)。在这个 LoRA 里,我们可以输入一个简单的需求,由 AI 帮我们细化详细的需求。仅从训练完的结果来看,LoRA 能符合我们的需要 —— 提供低成本的 LLM 定制。

不过呢,与 ChatGPT 相比依旧存在一些问题:源数据缺少丰富的多 AC 场景,导致写出来的 AC 数量较少

如下是清华大学的 ChatGLM 训练完后返回的结果:

  1. Instruction: create user story tasks

  2. Input: 购买电影票

  3. Output:

  4. 用户故事:可以购买电影票

  5. 作为一个电影票购买者

  6. 我想在应用中购买电影票

  7. 以便于我可以在电影院观看电影

  8. AC 1: 电影票购买者可以在应用中购买电影票

  9. 假设 电影票购买者已经登录了应用

  10. 电影票购买者点击购买电影票按钮

  11. 于是 电影票购买者可以查看电影院的可用座位,选择座位,支付电影票,查看电影票的详细信息

对应的 Meta(Facebook) 的 Llama 训练完后返回的结果:

  1. Instruction: create Agile user story for following toic

  2. Input: Log in to the account

  3. Output:

  4. 用户故事:可以注册账号作为一个社交网站用户

  5. 我想在 社交网站注册账号

  6. 以便于 我可以使用社交网站的功能

  7. AC 1: 用户可以在社交网站注册账号

  8. 假设 用户已经登录社交网站

  9. 用户点击“注册账号”按钮

  10. 于是 用户可以在社交网站注册账号

  11. AC 2: 用户可以在社交网站注册账号

  12. 假设 用户已经登录社交网站,并且已经注册账号

  13. 用户点击“更换账号”按钮

  14. 于是 用户可以在社交网站更换账号

使用插件式的 LoRA,企业应该准备什么?

诚然 LLM 的变化特别快,大部分企业可能在观望,但是我们建议从现在开始准备数据。由于通用的大模型无法解决特定领域的编程问题,所以对于大部分组织来说,依旧可以准备着手训练 LoRA —— 可以在整个组织使用,又或者是跨部门使用。

对于编程部分,诸如以下的场景是需要考虑的问题:

  • 私有的基础设施。大部分企业都会采用自研的云平台,这些云平台过去的主要问题挑战是文档不详细、API 版本不对,未来在采用 AI 辅助编程时,这些基础设施也将会成为新的挑战。

  • 框架、库。相似的,除了组织内部的库,三方提供的框架和库也应该提供对应的三方 LoRA

  • 领域特定语言。众所周知,大部分组织可能购买了一些领域特定的系统或者语言,它们也需要准备好对应的数据,

除此,可能还存在其它一些场景,如与LLM + 低代码系统的集成

1. 高质量的脱敏数据

数据是训练 LoRA 的关键,但是为了保护企业的知识产权和数据安全,需要对数据进行脱敏处理。因此,企业需要准备足够数量和高质量的脱敏数据,以确保训练出来的模型具有较高的准确性和可靠性。

诸如于,回到我们的训练过程里,由于早期我们投喂的数据量比较低,所以有很大的概率出现了:50% 左右的源代码输出。简单来说,你写了一个加密模块,使用了同样的输入和输出,就可能可以从大模型出原样拷贝出来。就这一点而言,它是相当可怕的。

在生成脱敏数据时,企业需要考虑许多因素,例如数据的分布、样本的数量、数据的多样性、数据的质量等等。同时,企业也需要采取适当的措施来确保生成的数据的质量和可靠性。这可能包括采用自动化工具、进行数据质量控制、进行人工审核等等。

2. 工程化的数据准备

对于通用的 LoRA 训练来说,通常我们采用的是下面的格式来训练:

  1. {

  2. "instruction":"Implement the method xxx",

  3. "input":"类信息",

  4. "output":"函数的代码"

  5. }

为了得到这样的结果,还需要对数据进行治理,以确保数据的准确性、一致性和可用性。这包括数据采集、存储、清洗、预处理和管理等方面。如我们在写 Unit Mesh 的一系列 LoRA 时,编写了几个工具:

  • 数据采集。GitHub Crawler 模块,作用你懂的。

  • 数据清洗、数据预处理。使用 Kotlin 编写了 Unit Processors 模块,用来对代码进行处理;使用 Python 编写了 Unit Prompter 模块,用来对 OpenAI 进行处理。

  • 数据管理。数据量不大,主要采用的是 jsonl 格式在 GitHub 上存储数据。

其中最复杂的部分是 processor,需要对各类数据进行处理。

3. 规范与流程标准化

当企业使用插件式的 LoRA 进行编程时,为了保证编程的效率和质量,需要对编程流程进行规范化和标准化,以确保使用 LoRA 的效率和质量。包括了以下几个方面:

  1. 制定编程规范:制定编程规范是确保代码风格一致性和可读性的重要措施。编程规范可以包括命名规范、注释规范、代码格式规范等。

  2. 标准化代码风格:编程风格的标准化可以提高代码的可读性,降低代码的复杂性和维护成本。在使用 LoRA 进行编程时,应采用标准化的代码风格,以便 LoRA 更好地理解代码。

  3. 版本控制:版本控制是管理代码变更的一种方法,可以追踪代码的变更历史、协作开发等。在使用 LoRA 进行编程时,应该使用版本控制工具,如 Git 等。

  4. 代码审查:代码审查是一种确保代码质量的方法,可以通过代码审查来发现代码中的错误和缺陷。在使用 LoRA 进行编程时,应该进行代码审查,以确保代码的质量和可读性。

这时,我们就需要采用一些合适的工具来对现有的代码和架构进行治理,如我们开发的开源架构治理工具 ArchGuard (https://github.com/archguard/)。

小结

如果你对训练 LoRA 有兴趣,对训练 AI 编程架构有兴趣,欢迎来加入我们:https://github.com/unit-mesh/unit-minions


训练烧钱,家里有余粮的,欢迎支持我们探索。

赞赏或者入坑…

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
10.3k?这才是企业级的 Spring Cloud Alibaba 微服务开发平台,真心牛 x!谷歌没开源的PaLM,网友给开源了!千亿参数微缩版:最大只有10亿,8k上下文疯抢LLM/JD!香港官宣:开启全球招聘计划!开发者笑疯了! LLaMa惊天泄露引爆ChatGPT平替狂潮,开源LLM领域变天开源意味着不问责,我们准备好应对比 Log4Shell 更大的安全危机了吗?|Log4j 一周年特别报道北大、西湖大学等开源「裁判大模型」PandaLM:三行代码全自动评估LLM,准确率达ChatGPT的94%搞科研新姿势:让GPT-3给你打下手|GGView“领跑”企业级SSD赛道! Memblaze推统一架构平台MUFP持续研发投入大模型迎来「开源季」,盘点过去一个月那些开源的LLM和数据集AppLovin研究报告:让游戏买量素材提效的关键元素有哪些?7个令人惊艳的教育方式,这才是“鸡娃”的正确姿势!LLM底座模型:LLaMA、Palm、GLM、BLOOM、GPT结构对比Belmont公私校大对比:Belmont Hill vs Belmont High以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南学点心理学,轻松提升自信和幸福感“拒绝恋爱脑的正确姿势。”【姿势控制·臀腿】课程:21个美腿必备的姿势能力京东开源:一款高效的企业级表格可视化搭建解决方案!跟AI闲聊半天:人类炒股的正确方式每一个人的大模型:开源BELLE项目集训练、数据、模型、评估、APP一体敏捷提效、精益腾飞,金融企业的数字化转型秘钥 | Q推荐2023年,创业成功的“正确姿势”Llama-X开源!呼吁每一位NLPer参与推动LLaMA成为最先进的LLM从LLM到MLLM,多模态大规模语言模型KOSMOS-1赋予了语言模型看见世界的能力轻松提高行动力的4个方法女儿回家过年LLM+LoRa微调加速技术原理及基于PEFT的动手实践:一些思考和mt0-large+lora完整案例午餐好看的欧美电视剧沾了血迹的内裤穿几次就丢!?用这款专业级内衣清洗液,轻松解决底档困扰隐语开源首个工业级多方安全数据分析系统SCQL:像写SQL一样「易用」隐私计算搞科研新姿势:让GPT-3给你打下手开源LLM领域变天!LLaMa惊天泄露引爆ChatGPT平替狂潮天使干部平反恢复级别后以前降级扣除的工资是否补发?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。