AutoDev Coder 6.7B 代码微调模型(v1 试验版)
太长不读性:
适用于 AutoDev 的编码大模型 AutoDev Coder 6.7B 第一个勉强可用的版本出来的。
HuggingFace 首页:https://huggingface.co/unit-mesh (暂时没有资质提供模型,🐶🐶)。
数据集下载地址:https://huggingface.co/datasets/unit-mesh/autodev-datasets
PS:AutoDev 1.5.1 的指令经过一些细微的调整,所以模型在 1.5.1 上的体验会比 1.5.0 略微好一点。而由于 AutoDev 1.5.1 在 JetBrains 市场等待审批,而老外们正在休完假。
除此,在有了更好的算力支持,经过更好的补全测试之后,我们也会将原来的 Inlay 补全模式加回来。
AutoDev Coder 6.7B v1 试验版
当前版本基于 LLaMA 架构下的 DeepSeek Coder 6.7b instruct 模型微调的。
注意事项:作为试验版,主要是为了磨合模型、数据工具与 IDE 插件,以达成更好的协调。因此,在生成质量还需要进一步提高,blabla 。
AutoDev Coder 64k 数据集
如下是 AutoDev Coder v1 64k 的指令组成:
文件名 | 选取的指令数 |
---|---|
java_oss.jsonl | 4000 |
python_oss.jsonl | 4000 |
codebugfixcleaned_5K.json | 4000 |
codeGPTCNcleaned_20K.json | 15000 |
codesummarizationCNcleaned10K.json | 8000 |
codegenerationCNcleaned5K.json | 4000 |
summary.jsonl | 25000 |
其中的 summary.jsonl 是由我们开源的代码微调数据框架 UnitGen 生成(https://github.com/unit-mesh/unit-gen)。
我们挑选了几十个开源软件 Java 和 Kotlin 语言,根据 AutoDev 插件的指令生成,主要分为三类:
补全(行内、行间、块间)
文档生成
注释生成
详细说明可以见 UnitGen (由 UnitEval 拆分出来)项目和文档:https://github.com/unit-mesh/unit-gen。
UnitGen 架构如下:
基于真国产、真自研的 Chapi 语法分析工具提供底层支持。
FAQ:AutoDev Coder 模型评估
暂时还在设计中。由于我们需要结合 AutoDev 指令与不同的语言如 Java、 Kotlin 、TypeScript 等语言,而非各种开源模型中喜欢用的 Python 体系,所以需要重新思考怎么设计。
我们前期采用 OSS Instruct 等指令集作为自然语言生成代码的补充,后来发现有一半的指令(~50,000 )与 Python 相关,后来从中刷选出 Java 大概在 ~5,000 左右。在 AutoDev 中采用结果并不是很好。
FAQ:AutoDev 指令
AutoDev 采用的是相关上下文策略,所以在指令上与其它工具有所差异。详细见:https://github.com/unit-mesh/auto-dev
Demo 示例
其它
有问题请在 GitHub 上讨论,微调公众号不好用~,见谅。
微信扫码关注该文公众号作者