Redian新闻
>
“伶荔(Linly)”项目团队全新发布中文Falcon基础模型

“伶荔(Linly)”项目团队全新发布中文Falcon基础模型

科技



引言

近期,阿联酋阿布扎比的技术创新研究所(TII)开源了 Falcon 系列模型,使用经过筛选的 1 万亿 tokens 进行预训练,并以 Apache 2.0 协议开源,可能是目前效果最好且许可协议最宽松(允许商用)的开源模型。

然而,Falcon 模型在使用上面临和 LLaMA 模型类似的问题:由于模型主要在英文数据集上训练,因此它理解和生成中文的能力偏弱。此外,Falcon 在构建词表时没有加入中文字/词,中文字会被拆分成多个 token 的组合,这导致中文文本会被拆分成更长的 tokens 序列,降低了编码和生成效率。

针对以上问题,“伶荔(Linly)”项目团队以 Falcon 模型为底座扩充中文词表,利用中文和中英平行增量预训练将模型的语言能力迁移学习到中文,实现 Chinese-Falcon。本文从模型结构上分析 Falcon、LLaMA 与传统 GPT 的异同,代码实现细节。并介绍我们的中文 Falcon 训练方案,包括中文字词扩充、数据集构建和训练参数等。

项目地址:

https://github.com/CVI-SZU/Linly




模型结构


Falcon 与 GPT 系列一样采用单向 Transformer-decoder 模型架构,并以语言模型作为训练目标。与 GPT-3 相比,Falco 的结构具有如下变化:

  1. 1. 位置编码:Falcon 使用旋转位置编码(RoPE),近期的大模型包括 GPT-Neo、PaLM 和 LLaMA 等都采用了 RoPE。

  2. 2. 注意力机制:使用 Multi-Query 将 key 和 value 映射到单个注意力头,只有 query 保留多头矩阵,这种简化方案能提升生成效率;使用 FlashAttention 将注意力矩阵分块,加速计算并降低内存 IO 开销。
  3. 3. Transformer:只使用单个 layer_norm 层,将 Attention 和 MLP 并行。


GPT、LLaMA 和 Falcon 的计算流程对比如图所示:
从 Transformer 模型结构上看,LLaMA 将 Layer-Norm 层放在 Ateention 和 FFN 的输入,这样有助于大模型训练稳定性(由 GPT2 论文提出)。此外,FFN 部分使用了门控线性层(GLU),这种结构最初被用在 T5-1.1,实验效果优于 MLP。

可以看出,LLaMA 的设计着重于性能提升,而 Falcon 对 Transformer 的改进着重于效率提升:将 Layer-Norm 层减少到一个并简化了注意力的计算(Multi-Query Attention),因此 Falcon 比 LLaMA 的生成速度更快。



Falcon模型实现


本章节介绍“伶荔(Linly)”项目中 Falcon 实现方案,我们使用 TencentPretrain 复现 Falcon 模型结构,用语言模型目标增量训练模型。TencentPretrain 是 UER-py 预训练框架的多模态版本,支持 BERT、GPT、T5、ViT、Dall-E、Speech2Text 等文本、图像和语音预训练模型及下游任务。TencentPretrain 基于模块化设计,可以通过模块组合的方式构成各种模型,也可以通过复用已有的模块进行少量修改来实现新的模型。

在之前实现 LLaMA 时,我们基于 GPT2 模型结构,新增了 RoPE 和 RMSNorm 模块。进一步,根据 Falcom 的模型结构,新增了 FlashAttention(Multi-Query)模块,复用已有的 MLP、Transformer、LM_target 等模块,来复现 Falcon 模型。

不同模型使用到的模块如下图所示:

值得注意的是,我们的实现与 Hugging Face 版本 Falcon 模型完全对齐,训练后的模型权重可以直接转换到 Hugging Face 使用,反之亦然。此外,我们复现的版本还改进了 Falcon 代码的兼容性:Falcon 在 Hugging Face 中为了高效训练使用了 F.scaled_dot_product_attention,它是 PyTorch 2.0 新增的函数。我们重写了这部分代码,当用户使用 1.x 版本时切换到我们的实现来兼容低版本 PyTorch。



Falcon中文训练


本章节介绍中文 Falcon 的训练流程和细节。首先扩充 Falcon 词表,包括 8,701 个常用汉字,jieba 词表中前 20,000 个中文高频词以及 60 个中文标点符号。去重后共增加 25,022 个 token,词表大小扩充为 90,046。改变词表后,embedding 和 target.output_layer 矩阵也要对应的扩充。我们将每个新增字/词在原始 tokenizer 中的对应向量的平均作为初始化。

在第一阶段,我们使用了 50GB 数据进行预训练,其中 20G 中文通用语料为模型提供中文语言能力和中文知识,10G 中英文平行语料用于对齐模型的中英文表示,将英文语言能力迁移到中文上,20G 英文语料用于数据回放,缓解模型遗忘。数据已在 Linly 项目中公开,细节如图所示:

在模型训练阶段,我们使用与 Falcon 预训练相同的超参数设置:AdamW,ZeRO Optimizer,Batch size 2304,对于增量训练,我们设置更低的学习率 2e-5。

为了避免训练中文 embeeding 时扰动已经训练好的模型参数,首先我们冻结 Transformer 权重,只更新 embedding 和 output_layer 部分,训练 16k steps 作为后续训练的初始化权重。进一步,在通用语料上全参数训练模型。部分收敛情况如下图所示:

除了第一阶段的 50GB 语料外,我们还将使用自建中文数据集和 SlimPajama 数据集共 2TB 语料训练中文 Falcon 基础模型,在伶荔项目中持续更新。

模型&数据下载:
https://github.com/CVI-SZU/Linly


预训练框架:
https://github.com/Tencent/TencentPretrain


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
美国劳伦斯伯克利国家实验室(LBNL)在 arXiv 上提交了一篇论文,其结果支持 LK-99 作为室温环境压力超导体大规模视觉基础模型应用在线研讨会上线!南开、港中文、南京理工和微软亚洲研究院的四位青年学者将直播讲解剑桥华人团队开源PandaGPT:首个横扫「六模态」的大型基础模型7 Papers & Radios | OpenAI用GPT-4解释GPT-2;Meta开源多感官基础模型IBM:拥抱基础模型与生成式AI,迎接“AI+”新时代时至今日,他们才明白自己的青春被浪费了浙大滨江院Om中心发布首个大规模图文配对遥感数据集,让通用基础模型也能服务遥感领域基础模型自监督预训练的数据之谜:大量数据究竟是福还是祸?你好,我是筚(bì)篥( lì)!上交大&上海AI lab研发胸部X-ray疾病诊断基础模型,成果入选Nature子刊𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶内衣裤,软弹有度,上身0束缚~我要当真正的地主了ICML 2023 | 基于模块化思想,阿里达摩院提出多模态基础模型mPLUG-2基础模型定义视觉新时代:综述与展望中国AI大模型地图发布;GPT研究烧掉30亿美金;美团正自研基础模型丨AIGC大事日报离乡人腾讯回应「长期未登录微信号被回收」/ iPhone 15 电池或将更耐用/周星驰版《美猴王》发布中文预告ACL 2023 | 持续进化中的语言基础模型说说缘分这个东西OpenAI劲敌融资13亿美元;中国团队推首颗AI全自动设计CPU;全球首个医疗多模态基础模型群发布丨AIGC大事日报超越YOLOv8!YOLO-NAS:下一代目标检测基础模型曾与腾格尔相爱8年,坦言离婚并不后悔,今57岁肤白貌美仍单身顺序决策与基础模型如何交叉互惠?谷歌、伯克利等探讨更多可能AGIEval:准确考察基础模型类人能力的基准评估工具面向真实用户需求的中文大语言模型评测第二期(LLMEVAL-2)发布Science Bulletin| “女娲”基因组资源发布中国汉族人群基因组近期适应性选择的最新发现Prompt Sapper:基础模型的灵魂伴侣,AI服务的创新工场七月福利!这家生物科技巨头正式发布中文名!送行李箱啦xAI发布会:马斯克12人创始团队全揭秘|Z TalkNature子刊|威大华人团队全新多模态数据分析及生成方法JAMIE,大幅提升细胞类型、功能预测能力【𝐂𝐚𝐥𝐧𝐢𝐊𝐞𝐚𝐧双皮奶无痕内裤】49元三条!巨巨巨好穿 !!简直就是辣妹顶配,食品级冰箱收纳盒【一日团】微软:中国无条件批准收购动视暴雪;国家超算中心发布中文大语言模型;JDG 登顶《英雄联盟》总决赛 | 极客早知道谷歌AI音乐工具开始公测,英国启动对AI基础模型初步审查,网络表演市场营收近2000亿元清华人工智能研究院「基础模型研究中心」成立!唐杰任研究中心主任,孙茂松任首席科学家Mol Cell | 上海科技大学季泉江开发新颖微型Cas12n基因编辑系统
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。