Redian新闻
>
百川智能再发新模型,超越Claude2将上下文窗口做到了全球第一

百川智能再发新模型,超越Claude2将上下文窗口做到了全球第一

公众号新闻


大模型的上下文窗口正变得越来越大,从 ChatGPT 的 4K,到 GPT-4 的 32K,从 MPT-7B 的 65K,到 Claude 的 100K,持续扩展上下文窗口长度已经成为了提升大模型应用效果的核心路径。 


现在上下文窗口长度又有了新突破。10 月 30 日,百川智能发布 Baichuan2-192K 大模型。其上下文窗口长度高达 192K,是目前全球最长的上下文窗口。Baichuan2-192K 能够一次性处理约 35 万个汉字,是 Claude2(支持 100K 上下文窗口,实测约 8 万字)的 4.4 倍,GPT-4(支持 32K 上下文窗口,实测约 2.5 万字)的 14 倍。Baichuan2-192K 不仅在上下文窗口长度上超越了 Claude2,在长窗口文本生成质量、长上下文理解以及长文本问答、摘要等方面的表现也全面领先 Claude2。




在语言模型中,上下文窗口对于理解和生成与特定上下文相关的文本至关重要。一般而言较大的上下文窗口可以提供更丰富的语义信息、消除歧义,进而让模型能够更准确、流畅的生成内容,提升模型的创造力。 


既然如此,是否将上下文窗口的长度提升到无限大,AGI 就指日可待了?理论上存在这种可能,但是就像受限于算力、数据等因素,大模型的参数不可能无限大一样,扩展上下文窗口同样面临诸多问题。 


现阶段 Transformer 是大模型的主流结构,而消耗的资源和窗口长度的平方成正比是 Transformer 模型自注意力机制的特点之一,即当模型输入长度变长之后,所需要的计算空间和时间便会爆炸性增长。因此,想要扩展上下文窗口不仅需要优化算法还要解决工程问题。 


这也正是今年 5 月份,Anthropic 公司将 Claude 的上下文窗口从 9K tokens 扩展到了 100K 后,立刻成为了上下文窗口领域标杆的原因。100K 的上下文窗口长度不仅反映了 Anthropic 的技术实力,还有效提升了 Claude 的文本理解、生成质量、逻辑推理等各种能力。



更长的上下文窗口能带来更好的模型性能
行业头部大模型公司都在不遗余力的扩展自家模型上下文窗口长度,那么将上下文窗口长度成倍扩大意味着什么?超长上下文输入能力又能为大模型带来哪些提升? 

表面上看是可输入的文本越来越长,模型的阅读能力越来越强。GPT-3.5 的 4K 窗口最多只能输入 3000 个英文单词或者 2000 个汉字,连大部分文章都难以读完;GPT-4 的 32K 窗口达到了阅读一篇短篇小说的程度;100K 窗口的 Claude 可输入约 8 万个单词,不到一分钟就可以阅读完一本《了不起的盖茨比》;而 Baichuan2-192K 一次可输入 35 万汉字,能够直接读完一本《三体》。

从更深层面来看,将大量自定义数据输入大模型,比如合同文档、科研文献,财务报告等,然后询问文档的相关问题,是垂直场景中的常见需求。这类需求经常会涉及行业 Know-How 的长尾知识,仅凭大模型在训练期间接入的互联网数据无法很好满足。
较大的上下文长度能够让大模型完整查询用户输入的上下文或数据,以更个性化的方式与用户交互。就像计算机在 RAM 中保留了所有应用程序的实时存储,由于上下文长度充足,大模型可以像“推理计算机”一样在 RAM 中即时“训练”,无需更改模型权重就可以取得各项能力表现的提升。



算法创新和工程优化并行,同步提升窗口长度和模型性能

然而,扩大 Transformer 的上下文长度是一项极具挑战性的工作,因为其核心的注意力层在时间复杂度和空间复杂度与输入序列长度的平方成正比。 

例如,一个标准的 13B 模型,输入长度为 2K tokens 的时候,其 Attention 部分在不经过任何优化和重消耗的情况下占用的空间只有 12.5GB。然而当长度扩展到 64K 之后,Attention 部分所需空间会达到惊人的 12.5TB。除了巨大存储空间占用之外,模型的训练时间也会随着上下文窗口长度的扩展呈现平方式增长的趋势。 

为解决这一问题,大模型的从业者和研究人员进行了很多探索和实践,稀疏 Attention 便是主要方向之一。稀疏 Attention 指的是对全连接的 Attention 进行近似逼近,以滑动窗口或者固定大小进行 Attention,这样整体的计算消耗和输入长度就会呈线性关系,在长度超过一定程度后这种方法可以显著的降低显存占用。LongFormer、BigBird 以及最近推出的 StreamingLLM 和 LM-Infinite 使用的都是这种方法。 

不过,由于大部分稀疏 Attention 仅仅是对标准 Attention 的近似,在一些需要精细化理解的场景里,这种方案往往会丢失重要的局部信息,进而导致大模型的长文本处理能力下降。 

拓展上下文窗口的另一个主要方向是训练阶段不调整上下文窗口长度,仅在模型部署推理阶段提升模型的处理长度,即 Train-short,Test-long。这种方法的核心思路是在推理阶段通过相对位置编码进行内插(interpolation)或者外推(extrapolation),让模型能够处理在训练阶段没有见到过的长度。 

在位置编码层对更长的窗口进行近似,然后改造短窗口位置编码来适应长窗口,虽然能够在长窗口处理方面取得一些效果,但是经常会出现长窗口变好,但之前训练长度内的短窗口变差的情况。此外,由于训练、推理不一致,这种方法会造成 Attention 动态性能的极大变化,在实际应用中虽然能够提升 PPL 等指标的表现,但是模型长文本上下文理解的能力并未提升。 

不同于以上两种优化路径,Baichuan2-192K 同时优化算法和工程,实现了窗口长度和模型性能之间的平衡,做到了窗口长度和模型性能的同步提升。Baichuan2-192K 采用了标准的全连接 Attention 而非近似的稀疏 Attention,以保证模型的长文本理解效果,同时对位置编码进行改造使之能够适应不同长度的上下文场景。 

算法方面,通过对注意力分布的可视化分析和算法分析,百川团队发现随着序列变长,模型会因为 OOD 导致网络中对应 token 的 hidden_states 呈现爆炸 (explosion) 的迹象;同时,Attention score 的方差也会随着序列增长而不断下降。 

在此基础上,百川智能提出了一种针对 RoPE 和 ALiBi 的动态位置编码的外推方案,该方案能够对不同长度的 ALiBi 位置编码进行不同程度的 Attention-mask 动态内插,在保证分辨率的同时增强了模型对长序列依赖的建模能力。 

工程方面,百川智能整合了目前市场上所有先进的优化技术,包括张量并行、流水并行、序列并行、重计算以及 Offload 功能等,独创了一套 4D 并行的分布式方案。该方案能够根据具体的负载情况,自动寻找最适合的分布式策略,极大降低了长窗口推理过程中的显存占用。



10项长文本评测7项取得SOTA,全面领先Claude2
在长上下文窗口领域,Anthropic 的 100K 窗口是无法绕过的话题。今年 5 月,Anthropic 在其大模型对话应用 Claude 上率先实现了长上下文窗口的突破,将上下文窗口从 9K 扩展到了 100K。7 月,更新后的 Claude2 实现了 100K 上下文窗口的产品级常规应用,在超长文本窗口的加持下,Claude2 的文献概括、代码编写、推理等能力得到明显提升,迅速成为了业内焦点。
然而你追我赶是大模型赛道的常态,没有谁能始终保持领先,本次百川智能发布的 Baichuan2-192K 长窗口大模型,不仅上下文窗口长度远超 Claude2 达到了 192K,并且在文本生成质量、上下文理解、问答能力等多个维度的评测中也都显著领先 Claude2,成为了长上下文窗口领域的新标杆。

根据 DeepMind 发布的语言建模基准数据集 PG19 的测试结果,Baichuan2-192K 的困惑度在窗口长度内保持了持续下降的状态。困惑度是衡量大模型文本生成质量的重要标准,可以简单理解为将符合人类自然语言习惯的高质量文档作为测试集时,模型生成测试集中文本的概率越高,模型的困惑度就越小,模型也就越好。

困惑度虽然是衡量模型文本生成质量的主流方式,但是却无法作为评测模型上下文理解能力的标准,原因在于即使通过长上下文窗口输入了很长的文本,但模型可能仅根据前面较短窗口的内容便可以生成看似合理的结果。因此想要衡量模型的长文本理解能力,必须引入其他评测手段。
LongEval 是加州大学伯克利分校联合其他高校发布的针对长窗口模型的评测榜单,主要用来衡量模型对长窗口内容的记忆和理解能力,是业内公认的长上下文窗口权威评测榜单。

LongEval 的评测结果显示,Baichuan2-192K 的长窗口内容记忆和理解能力大幅领先其他模型,窗口长度超过 100K 后依然能够保持非常强劲的性能,而其他模型在窗口增长后效果都出现了近乎直线下降的情况。Claude2 也不例外,在窗口长度超过 80K 后整体效果下降非常严重。

此外,为更好的验证长上下文窗口的真实能力,Baichuan2-192K 还使用 Dureader、NarrativeQA、TriviaQA、LSHT 等 10 个权威中英文长文本问答、摘要评测集进行了评测,其中有 7 项取得 SOTA,显著超过其他长窗口模型 。

具体数据集:
  • Dureader: 是由百度发布的一个中文真实场景问答数据,需要多文档进行问答
  •  NarrativeQA: 一个根据长文本小说进行问答的英文数据集
  • TriviaQA: 是由华盛顿大学发布智力游戏问答数据集
  • LSHT: 是一个包含有24个类别的中文新闻分类数据集
  • MFQA: MultifiledQA,包含有中英两种语言的文档阅读理解数据集
  • QMSUM: 一个根据会议纪要进行问答的英文数据集
  • RepoBench-P: 是一个根据Github中代码仓库的上下文预测后续代码的代码补全测试集
  • Trec: 包含有50个类别的网页问题分类数据集
  • VCSUM: 一个对中文会议进行摘要和总结的任务 

最终效果:

可以看到 Baichuan2-192K 表现优异,在大部分长文本评测集上都取得了最好效果。



35万字只是起点,深度赋能垂直场景才是关键

当模型处理的上下文变得更长后,大模型便能够与更多垂直场景深度结合,真正在人们的工作、生活、学习中发挥作用,而且由于可以直接基于全文理解进行问答和信息处理,大模型的“幻觉”问题也可以得到缓解。

Baichuan2-192K 能够一次性处理和分析数百页材料,对于长篇文档关键信息提取与分析,长文档摘要、长文档审核、长篇文章或报告编写、复杂编程辅助等真实场景都有巨大的助力作用。
它可以帮助基金经理总结和解释财务报表,分析公司的风险和机遇;帮助律师识别多个法律文件中的风险,审核合同和法律文件;帮助技术人员阅读数百页的开发文档,并回答技术问题;还能帮助科员人员快速浏览大量论文,总结最新的前沿进展。

此外,一次性读取 35 万汉字的能力,还能够让其生成更连贯、更吸引人的长篇内容,帮助创作者更快更好的创作内容。不仅如此,更长的上下文还为其更好的处理和理解复杂的多模态输入,以及实现更好的迁移学习提供了底层支撑。

目前,Baichuan2-192K 已经与财经类媒体和讯网、海德律师事务所等机构达成了合作,将其全球领先的长上下文能力应用到了传媒、法律等具体场景当中。

百川智能成立于 2023 年 4 月,成立至今,百川智能接连发布 Baichuan-7B/13B,Baichuan2-7B/13B 四款开源可免费商用大模型以及 Baichuan-53B、Baichuan2-53B 两款闭源大模型,平均每个月就会发布一款新的大模型,研发速度处于行业的顶尖水平。

192K 的上下文窗口既是百川智能在大模型技术创新上的又一次突破,也是大模型发展过程中的又一里程碑式进展,百川智能再一次走在了大模型技术创新的最前沿。


🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
雷军发文跟MIUI说再见:小米启用全新操作系统;苹果将捐款2500万支持中国乡村发展;百川智能完成3亿美元A1轮融资丨邦早报王者GPT-4已来,32k上下文!OpenAI首届开发者大会最新爆料,全新UI可定制GPT,xAI大模型大范围可用百川智能推出全球最长上下文窗口大模型Baichuan2-192K,一次可输入35万字超越Claude2LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习旧帖珍藏(2)来自偶像加好友FionaRawson百川智能获阿里腾讯等3亿美元投资;vivo AI助手Jovi Copilot曝光;商汤推医疗健康大模型“大医”丨AIGC大事日报ChatGPT之父剑桥演讲遭抵制;百川智能推出192K大模型;影星斯嘉丽起诉AI开发商|AIGC周观察第二十三期百川智能发布Baichuan2大模型:全面领先Llama2,训练切片也开源了百川智能开源最新商用大模型!王小川:比LLaMA更香,下一枪打ChatGPT偷情的风波贾佳亚韩松团队新作:两行代码让大模型上下文窗口倍增 | GitHub热榜《编织梦幻的人·达利篇之一》GPU推理提速4倍,256K上下文全球最长:无问芯穹刷新大模型优化记录一句话解锁100k+上下文大模型真实力,27分涨到98,GPT-4、Claude2.1适用小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器一文速览NeurIPS 2023大模型/预训练/上下文学习相关Spotlight文章Meta普林斯顿提出LLM上下文终极解决方案!让模型化身自主智能体,自行读取上下文节点树最强LLaMA突然来袭!只改一个超参数,实现上下文3.2万token,多个任务打败ChatGPT、Claude 2Nature:超越ChatGPT,思维更像人类的人工智能诞生,具备了人类举一反三的能力讯飞星火:整体超越ChatGPT,医疗超越GPT4!一手实测在此OpenAI CEO称没兴趣参与智能手机竞争;杨立昆反对过早监管AI;百川智能完成A轮3亿美元融资|AIGC周观察第二十一期红色日记 8.1-31性能碾压Llama 2,全球下载量超500万,百川智能开源模型凭什么?混合精度下位置编码竟有大坑,llama 等主流开源模型纷纷中招!百川智能给出修复方案智能周报|美国更新「芯片禁令」;百川智能和智谱AI迄今已融资超25亿元;Meta实现对大脑视觉皮层的实时解码Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文」模型,超越ChatGPT百川智能发布Baichuan2,王小川:中国企业用LLaMA2的时代过去了|甲子光年OpenAI史诗级更新!最强大模型炸场,128K上下文、价格暴降2/3,还能定制专属GPTUC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源大反转!奥特曼回归OpenAI ?;微软发布人工智能芯片;百度李彦宏:重复造大模型是浪费;阿里巴巴、百川智能、极睿科技等最新消息上下文学习=对比学习?人大揭示ICL推理背后的隐式更新机理:梯度更新了吗?「如更」游莱茵河,漂亮建筑Google语言模型反击战!部分性能超越ChatGPT!刚刚,百川智能Baichuan2-192K发布,上下文窗口全球最长!一次读完《三体》,拿下7个SOTA小度之父景鲲离职百度;OpenAI拟自研AI芯片;雷军连番注资百川智能丨AIGC大事日报
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。