Redian新闻
>
全面了解大语言模型,这有一份阅读清单

全面了解大语言模型,这有一份阅读清单

公众号新闻

机器之心报道

机器之心编辑部

了解当代大型语言模型背后的设计、约束和演变,你可以遵循本文的阅读清单。


大型语言模型已经引起了公众的注意,短短五年内,Transforme等模型几乎完全改变了自然语言处理领域。此外,它们还开始在计算机视觉和计算生物学等领域引发革命。
鉴于Transformers对每个人的研究进程都有如此大的影响,本文将为大家介绍一个简短的阅读清单,供机器学习研究人员和从业者入门使用。
下面的列表主要是按时间顺序展开的,主要是一些学术研究论文。当然,还有许多其他有用的资源。例如:
  • Jay Alammar撰写的《The Illustrated Transformer》

  • Lilian Weng撰写的《The Transformer Family》

  • Xavier Amatriain撰写的《Transformer models: an introduction and catalog — 2023 Edition》

  • Andrej Karpathy写的nanoGPT库


对主要架构和任务的理解
 如果你是Transformers、大型语言模型新手,那么这几篇文章最适合你。 
论文1:《Neural Machine Translation by Jointly Learning to Align and Translate》


论文地址:https://arxiv.org/pdf/1409.0473.pdf


本文引入了一种循环神经网络(RNN)注意力机制,提高了模型远程序列建模能力。这使得RNN能够更准确地翻译较长的句子——这也是后来开发原始Transformer架构的动机。 
图源: https://arxiv.org/abs/1409.0473
论文2:《Attention Is All You Need》
论文地址:https://arxiv.org/abs/1706.03762
本文介绍了由编码器和解码器组成的原始Transformer架构,这些部分将在以后作为单独模块进行相关介绍。此外,本文还介绍了缩放点积注意力机制、多头注意力块和位置输入编码等概念,这些概念仍然是现代Transformer的基础。

图源:https://arxiv.org/abs/1706.03762

论文3:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》



文地址:https://arxiv.org/abs/1810.04805
大型语言模型研究遵循最初的Transformer架构,然后开始向两个方向延伸:用于预测建模任务(如文本分类)的Transformer和用于生成建模任务(如翻译、摘要和其他形式的文本创建)的Transformer 。 
BERT论文介绍了掩码语言建模原始概念,如果你对这个研究分支感兴趣,那么可以跟进RoBERTa,其简化了预训练目标。 
图源:https://arxiv.org/abs/1810.04805

论文4:《Improving Language Understanding by Generative Pre-Training》



论文地址:https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035
最初的GPT论文介绍了流行的解码器风格的架构和通过下一个单词预测进行预训练。BERT由于其掩码语言模型预训练目标,可以被认为是一个双向Transformer,而GPT是一个单向自回归模型。虽然GPT嵌入也可以用于分类,但GPT方法是当今最有影响力的LLMs(如ChatGPT)的核心。 

如果你对这个研究分支感兴趣,那么可以跟进GPT-2和GPT-3的论文。此外,本文将在后面单独介绍InstructGPT方法。 



论文5:《BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension》



论文地址 https://arxiv.org/abs/1910.13461.
如上所述, BERT型编码器风格的LLM通常是预测建模任务的首选,而GPT型解码器风格的LLM更擅长生成文本。为了两全其美,上面的BART论文结合了编码器和解码器部分。
扩展定律与效率提升
如果你想了解更多关于提高Transformer效率的技术,可以参考以下论文
  • 论文1:《A Survey on Efficient Training of Transformers》

  • 论文地址:https://arxiv.org/abs/2302.01107


  • 论文2:《FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness》

  • 论文地址:https://arxiv.org/abs/2205.14135


  • 论文3:《Cramming: Training a Language Model on a Single GPU in One Day》

  • 论文地址:https://arxiv.org/abs/2212.14034


  • 论文4:《Training Compute-Optimal Large Language Models》

  • 论文地址:https://arxiv.org/abs/2203.15556


此外,还有论文《Training Compute-Optimal Large Language Models》

论文地址:https://arxiv.org/abs/2203.15556


本文介绍了700亿参数的Chinchilla模型,该模型在生成建模任务上优于流行的1750亿参数的GPT-3模型。然而,它的主要点睛之处在于,当代大型语言模型训练严重不足。
本文定义了用于大型语言模型训练的线性scaling law。例如,虽然Chinchilla的大小只有GPT-3的一半,但它的表现优于GPT-3,因为它是在1.4万亿(而不是3000亿)token上进行训练的。换句话说,训练token的数量和模型大小一样重要。


对齐——将大型语言模型朝着预期的目标和兴趣引导
近年来出现了许多相对强大的大型语言模型,它们可以生成真实的文本(例如GPT-3和Chinchilla)。就常用的预训练范式而言,目前似乎已经达到了一个上限。
为了使语言模型更能帮助到人类,减少错误信息和不良语言,研究人员设计了额外的训练范式来微调预训练的基础模型,包括如下论文。
  • 论文1:《Training Language Models to Follow Instructions with Human Feedback》

  • 论文地址:https://arxiv.org/abs/2203.02155


在这篇所谓的InstructGPT论文中,研究人员使用了RLHF(Reinforcement Learning from Human Feedback)。他们从预训练的GPT-3基础模型开始,并使用监督学习对人类生成的提示响应对进行进一步微调(步骤1)。接下来,他们要求人类对模型输出进行排序以训练奖励模型(步骤2)。最后,他们使用奖励模型通过近端策略优化(步骤3)使用强化学习来更新预训练和微调的GPT-3模型。
顺便说一句,这篇论文也被称为描述ChatGPT背后思想的论文——根据最近的传言,ChatGPT是InstructGPT的扩展版本,它在更大的数据集上进行了微调。


  • 论文2:《Constitutional AI: Harmlessness from AI Feedback》

  • 论文地址:https://arxiv.org/abs/2212.08073


在这篇论文中,研究人员进一步推进了对齐的想法,提出了一种创建「harmless」的AI系统的训练机制。研究人员提出了一种基于规则列表(由人类提供)的自训练机制,而不是直接由人类监督。与上面提到的InstructGPT论文类似,所提出的方法使用了强化学习方法。


总结
本文对上方表单的排列尽量保持简洁美观,建议重点关注前10篇论文,以了解当代大型语言模型背后的设计、局限和演变。
如果想深入阅读,建议参考上述论文中的参考文献。或者,这里有一些额外的资源,供读者进一步研究:
GPT的开源替代方案
  • 论文1:《BLOOM: A 176B-Parameter Open-Access Multilingual Language Model》

  • 论文地址:https://arxiv.org/abs/2211.05100


  • 论文2:《OPT: Open Pre-trained Transformer Language Models》

  • 论文地址:https://arxiv.org/abs/2205.01068


ChatGPT的替代方案
  • 论文1《LaMDA: Language Models for Dialog Applications》

  • 论文地址:https://arxiv.org/abs/2201.08239


  • 论文2:《Improving alignment of dialogue agents via targeted human judgements》

  • 论文地址:https://arxiv.org/abs/2209.14375


  • 论文3:《BlenderBot 3: a deployed conversational agent that continually learns to responsibly engage》

  • 论文地址:https://arxiv.org/abs/2208.03188


计算生物学中的大型语言模型
  • 论文1:《 ProtTrans: Towards Cracking the Language of Life’s Code Through Self-Supervised Learning 》

  • 论文地址:https://arxiv.org/abs/2007.06225

 

  • 论文2:《Highly accurate protein structure prediction with AlphaFold》

  • 论文地址:https://www.nature.com/articles/s41586-021-03819-2


  • 论文3:《Large Language Models Generate Functional Protein Sequences Across Diverse Families》

  • 论文地址:https://www.nature.com/articles/s41587-022-01618-2

原文链接:https://sebastianraschka.com/blog/2023/llm-reading-list.html


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
性能超越GPT-4!谷歌推出大语言模型PaLM 2,全面升级Bard反击ChatGPT|环球科学要闻大语言模型的多语言机器翻译能力分析必应发狂了! LeCun马库斯齐喷ChatGPT:大语言模型果然是邪路?7 Papers & Radios | Meta「分割一切」AI模型;从T5到GPT-4盘点大语言模型Meta最新语言模型LLaMA论文研读:小参数+大数据的开放、高效基础语言模型阅读笔记ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线从LLM到MLLM,多模态大规模语言模型KOSMOS-1赋予了语言模型看见世界的能力这有一份新手“无痕”露营指南请你查收2022南美南极行(15)巴西 萨尔瓦多Stable Diffusion背后公司开源大语言模型,很火,但很烂薪酬倒挂影响员工士气?这有一份解决方案,请查收Meta版ChatGPT来了?小扎、LeCun官宣650亿参数SOTA大语言模型LLaMA由ChatGPT反思大语言模型(LLM)的技术精要NeurIPS 2022 | UCLA推出科学问答新基准,大语言模型迎来多模态新挑战!我们做了一个大模型测试集「Z-Bench」,300个问题全方位考察大语言模型能力比 ChatGPT 更早发布的微信大语言模型,现在什么水平?大语言模型沸腾:文心一言「重塑」百度丨智氪NLP大规模语言模型推理实战:大语言模型BLOOM推理工具测试实践与效果分析实录单卡就能跑的大模型等效GPT-3!Meta发布大语言模型LLaMA,大小从7B到65B不等ICLR 2023 | 用大语言模型GPT-3直接替代传统搜索引擎“文心一言”未至先火,大语言模型加持将开启百度发展新纪元佛州西南区的运河Meta发布新语言模型,微软推Win11惹众怒,港交所将允许无盈利科技公司上市,京东百亿补贴38节上线,这就是今天的其它大新闻!大语言模型: 新的摩尔定律?大语言模型,中国这次能不能支棱起来?谷歌I/O开发者大会发布全新大语言模型,反超GPT-4!办公全家桶炸裂升级,还带来了首款折叠屏手机《知识》自古是被当作私有财产创业者说 | 达观数据陈运文:探索大语言模型,「对症下药」很关键数字化转型难落地?这有一份管理地图请查收Meta发布全新大语言模型,号称比ChatGPT更强,单GPU上就能跑,后续或将开源机器人领位,奥兰多川味火锅硬核观察 #934 Meta 的大语言模型 LLaMA 被泄露2023元月小惊喜大语言模型的进化树,这是一份超详细ChatGPT「食用」指南中国第一个真正实现智能涌现的国产大语言模型,内测即将开启
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。