Redian新闻
>
LLM综述出书了!人大高瓴赵鑫老师组发布全新大语言模型中文书

LLM综述出书了!人大高瓴赵鑫老师组发布全新大语言模型中文书

公众号新闻

在2023年3月,我们发表了大语言模型综述文章《A Survey of Large Language Models》。这篇综述文章已经更新到第13个版本,包含了83页的正文内容,并收录了900余篇参考文献。该综述文章旨在系统地梳理大语言模型的研究进展与核心技术,讨论了大量的相关工作。自大语言模型综述的预印本上线以来,受到了不少读者的关注。





自英文综述文章上线后,陆续有读者询问是否有对应的中文版本。为此,我们于2023年8月发布了该综述的中文翻译版。为了更好地提供大模型技术的中文参考资料,我们于2023年12月底继续启动了中文书的编写工作,并且于近日完成初稿。与英文综述文章的定位不同,中文版书籍更注重为大模型技术的入门读者提供讲解,为此我们在内容上进行了大幅度的更新与重组,力图展现一个整体的大模型技术框架和路线图。本书适用于具有深度学习基础的高年级本科生以及低年级研究生使用,可以作为一本入门级的参考资料。

中文书项目链接:
https://llmbook-zh.github.io/



中文书下载链接1:
https://github.com/LLMBook-zh/LLMBook-zh.github.io/blob/main/LLMBook.pdf

中文书下载链接2:
http://aibox.ruc.edu.cn/zws/index.htm

全书章节组织:
一、背景与基础知识
第一章  引言(大模型发展历程、重要技术概览)
第二章  基础介绍(Scaling Law、GPT系列模型发展历程)
第三章  大模型资源(开源模型、数据、代码库)
二、预训练
第四章  数据准备(数据收集、清洗、配比、课程方法)
第五章  模型架构(Transformer 结构、大模型主流架构、细节改进)
第六章  模型预训练(预训练任务、优化参数设置、并行训练方法)
三、微调与对齐
第七章  指令微调(指令数据收集与合成方法、指令微调策略与作用)
第八章  人类对齐(3H标准、RLHF算法、非RL算法)
四、大模型使用
第九章  解码与部署(解码生成算法、解码加速算法、模型压缩算法)
第十章  提示学习(基础提示方法、上下文学习、思维链)
第十一章  规划与智能体(复杂规划方法、智能体搭建方法)
五、评测与应用
第十二章 评测(评测指标与方法、基础与高级能力评测、评测体系)
第十三章 应用(概览研究领域与专业领域的应用)

▲ 大语言模型发展时间线


▲ LLaMA 系列模型的衍生工作进化图

在本书撰写过程中,我们收到了来自许多同行的大量修改意见,在此一并表示感谢,希望大家一如既往支持与关注我们的大模型中文书,您的支持与反馈将是我们前行最大的动力。本书的初版仅是一个起点,我们计划在网上持续进行内容的更新和完善,并特别欢迎读者提出宝贵的批评与建议,也会同步在网站上对于提出宝贵建议的读者进行致谢。如果您有任何意见、评论以及建议,请通过GitHub的Issue页面(https://github.com/LLMBook-zh/LLMBook-zh.github.io/issues或邮箱进行反馈。


为了更好地整理和传播大模型技术的最新进展与技术体系,我们为读者提供了以下配套资源,供读者在阅读本书时进行参考和使用。

大模型代码工具库:我们开发了一个全面的代码工具库LLMBox,专门用于开发和实现大语言模型,其基于统一化的训练流程和全面的模型评估框架。LLMBox旨在成为训练和利用大语言模型的一站式解决方案,其内部集成了大量实用的功能,实现了训练和利用阶段高度的灵活性和效率。工具库链接:https://github.com/RUCAIBox/LLMBox



YuLan大模型:YuLan系列模型是中国人民大学高瓴人工智能学院师生共同开发的支持聊天的大语言模型(名字“玉兰”取自中国人民大学校花)。最新版本从头完成了整个预训练过程,并采用课程学习技术基于中英文双语数据进行有监督微调,包括高质量指令和人类偏好数据。模型链接:https://github.com/RUC-GSAI/YuLan-Chat




本书各章节的主要负责人和参与人名单如下:

  • 第三章的负责人是闵映乾和杨晨,参与人有李军毅、周昆;

  • 第四章的负责人是张君杰、侯宇蓬和周昆;

  • 第五章的负责人是董梓灿,参与人有田震和唐天一;

  • 第六章的负责人是唐天一和陈昱硕;

  • 第七章的负责人是唐天一,参与人有成晓雪;

  • 第八章的负责人是李军毅和陈志朋;

  • 第九章的负责人是陈昱硕、刘沛羽和唐天一,参与人有周昆;

  • 第十章的负责人是李军毅、汤昕宇和都一凡;

  • 第十一章的负责人是任瑞阳和蒋锦昊,参与人有李军毅;

  • 第十二章的负责人是张北辰和周昆,参与人有张高玮;

  • 第十三章的负责人是周昆,参与人(按拼音字母排序)有蒋锦昊、李依凡、刘子康、孙文奇、王禹淏、徐澜玲、杨锦霞和郑博文。


同时感谢其他所有参与本书编写、校对的同学和老师们。


🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·
·

👇 点击“阅读原文”,即可下载中文书

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
AI早知道|Kimi智能助手升级;Meta开源推出新一代大语言模型Llama3该结婚则结婚,该生则生;不育不孕的烦恼;尹烨谈念头;浙里办相亲深圳/香港/上海内推 | 商汤研究院基础语言模型团队招聘大语言模型算法研究员大模型如何用因果性?最新《大型语言模型与因果推断在协作中的应用》全面综述人大高瓴教授为Sora吵起来了!LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」今日arXiv最热NLP大模型论文:揭露大语言模型短板,北京大学提出事件推理测试基准大模型中文微调最佳神器!"弱智吧"is all you need大语言模型对齐的四种方法!微软拟与OpenAI投资1000亿美元建AI超算;Databricks 推出1320亿参数大语言模型 DBRX丨AIGC日报意见区里的风暴华为回应智界 S7 截胡小米 SU7,雷军表态/苹果正在自研设备端大语言模型/「欧洲版OpenAI」洽谈融资5亿红杉资本入局,马斯克的AI公司接近达成60亿美元融资;苹果发布基于开源训练和推理框架的语言模型OpenELM丨AIGC日报ICML 2024 | 大语言模型如何表征不同信念?简单好用!北大、普林斯顿联合提出即插即用的大语言模型加速方法文末送书!大语言模型应用指南:以ChatGPT为起点,从入门到精通的实践教程Mamba再下一城!Cobra:将Mamba扩展到多模态大语言模型极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行AI早知道|Apple 发布 MM1多模态大语言模型;xAI 是市场上薪酬最高的人工智能公司WWW 2024 | 阿里等提出GraphTranslator,将图模型对齐大语言模型人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈科研实习 | 南方科技大学-香港中文大学(深圳)联合招收大语言模型算法实习生学什么准备未来(三)新能源没能量NAACL 2024 | 阿里提出大语言模型对齐框架Reward Learning on Policy (RLP)人物 | 所罗门诺夫:大语言模型的先知大模型综述出书了笑談國之怪現況 51 兩會總理記者招待會谈少年轻狂免费在线体验Meta LIama 3大语言模型!GpuMall狂送10万代金券!使用 IPEX-LLM 加速英特尔®至强®可扩展处理器上的大语言模型推理用大语言模型控制交通信号灯,有效缓解拥堵!AI早知道|商汤发布日日新5.0大模型;微软推出小语言模型Phi-3;腾讯旗下协作SaaS产品全面接入混元大模型马斯克宣布正式开源大语言模型Grok;人体避免多个精子使一个卵子受精的机制揭示 | 环球科学要闻统一化数据库:为大语言模型垂域应用奠定基础今日arXiv最热NLP大模型论文:清华大学:大语言模型的常见词僻意理解能力竟不如中学生
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。