人大:大模型综述9月最新升级
今年3月末,我们在arXiv网站发布了大语言模型综述文章《A Survey of Large Language Models》的第一个版本V1,该综述文章系统性地梳理了大语言模型的研究进展与核心技术,讨论了大量的相关工作。自大语言模型综述的预印本上线以来,受到了广泛关注,收到了不少读者的宝贵意见。
在发布V1版本后的5个月时间内,为了提升该综述的质量,我们在持续更新相关的内容,连续进行了多版的内容修订(版本号目前迭代到V12),论文篇幅从V1版本的51页、416篇参考文献,到V11版本的85页、610篇参考文献,现在进一步扩增到V12版本的97页、683篇参考文献。继6月末发布于arXiv网站的大修版本V11,V12版本是我们两个多月以来又一次进行大修的版本。
相较于V11版本,V12版本的大语言模型综述有以下新亮点:
新增了对于新兴架构、注意力方式和解码策略的简要介绍; 新增了指令微调实用技巧的相关介绍; 新增了关于RLHF与非RL对齐方法的概要介绍; 具体实验分析更加完善,在指令微调与能力评测实验新增了最新的模型; 新增了对评测方法的讨论,并对已有的评测工作进行总结; 增补了许多脉络梳理内容,以及大量最新工作介绍;
论文链接:https://arxiv.org/abs/2303.18223 GitHub项目链接:https://github.com/RUCAIBox/LLMSurvey 中文翻译版本链接:https://github.com/RUCAIBox/LLMSurvey/blob/main/assets/LLM_Survey_Chinese.pdf
以下是综述部分章节的主要更新内容介绍,详细内容请参阅我们的英文综述。
1. 大语言模型相关资源
2. 大语言模型预训练技术
3. 大语言模型适配技术
4. 大语言模型使用技术
5. 大语言模型能力评估
大模型能力评估方面,我们增加了一个子章节对评测方法进行讨论,分别介绍了对基座模型、微调模型和专业模型的相关评测工作。我们总结了已有的评测工作,讨论了基准评测、人类评测和模型评测三类评测方法的优缺点。我们在表中总结了现有评测工作。
此外,随着新的大语言模型发布,我们在经验评测章节新增了多个热门大语言模型的评测结果,包括LLaMA 2 (Chat) 7B、Claude-2和Vicuna 13B,并补充了对新增模型的实验讨论。
6. 综述定位
附件:更新日志
版本 | 时间 | 主要更新内容 |
---|---|---|
V1 | 2023年3月31日 | 初始版本 |
V2 | 2023年4月9日 | 添加了机构信息。修订了图表 1 和表格 1,并澄清了大语言模型的相应选择标准。改进了写作。纠正了一些小错误。 |
V3 | 2023年4月11日 | 修正了关于库资源的错误 |
V4 | 2023年4月12日 | 修订了图1 和表格 1,并澄清了一些大语言模型的发布日期 |
V5 | 2023年4月16日 | 添加了关于 GPT 系列模型技术发展的章节 |
V6 | 2023年4月24日 | 在表格 1 和图表 1 中添加了一些新模型。添加了关于扩展法则的讨论。为涌现能力的模型尺寸添加了一些解释(第 2.1 节)。在图 4 中添加了用于不同架构的注意力模式的插图。在表格 4 中添加了详细的公式。 |
V7 | 2023年4月25日 | 修正了图表和表格中的一些拷贝错误 |
V8 | 2023年4月27日 | 在第 5.3 节中添加了参数高效适配章节 |
V9 | 2023年4月28日 | 修订了第 5.3 节 |
V10 | 2023年5 月7 日 | 修订了表格 1、表格 2 和一些细节 |
V11 | 2023年6月29日 | 第一章:添加了图1,在arXiv上发布的大语言论文趋势图; 第二章:添加图3以展示GPT的演变及相应的讨论; 第三章:添加图4以展示LLaMA家族及相应的讨论; 第五章:在5.1.1节中添加有关指令调整合成数据方式的最新讨论,在5.1.4节中添加有关指令调整的经验分析,在5.3节中添加有关参数高效适配的讨论,在5.4节中添加有关空间高效适配的讨论; 第六章:在6.1.3节中添加有关ICL的底层机制的最新讨论,在6.3节中添加有关复杂任务解决规划的讨论; 第七章:在7.2节中添加用于评估LLM高级能力的代表性数据集的表格10,在7.3.2节中添加大语言模型综合能力评测; 第八章:添加提示设计; 第九章:添加关于大语言模型在金融和科学研究领域应用的讨论。 |
V12 | 2023年9月11日 | 第三章:表格1新增模型,图2新增模型; 第四章:在4.2.1节中新增对新型架构的讨论,在4.2.2节中新增对几种注意力机制的介绍,新增4.2.4 节解码策略的介绍; 第五章:在5.1.2节中新增指令微调的实用技巧,在5.1.4节和表格 8中新增LLaMA-13B的指令微调实验分析,在5.2.3节中新增RLHF的实用策略,新增 5.2.4节不使用RLHF的对齐方法介绍,新增 5.2.5节关于SFT和RLHF的讨论; 第六章:新增表格 9 总结了提示的代表性工作,在 6.3节中更新了规划部分对记忆的介绍; 第七章:新增7.3.2节对评测方法的讨论,新增表格11对已有评测工作进行了总结,更新了7.4节经验能力评测及表格12的评测结果。 |
进NLP群—>加入NLP交流群
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章