Redian新闻
>
别再说国产大模型技术突破要靠 Llama 3 开源了

别再说国产大模型技术突破要靠 Llama 3 开源了

科技

SuperBench评测显示,Llama 3不敌国产大模型。

作者丨张进

编辑丨陈彩娴

近日,千呼万唤之下,Meta终于发布了开源大模型Llama 3的 8B 和 70B 版本,再次震动 AI 圈。

Meta 表示,Llama 3 已经在多种行业基准测试上展现了最先进的性能,提供了包括改进的推理能力在内的新功能,是目前市场上最好的开源大模型。

根据Meta的测试结果,Llama 3 8B模型在语言(MMLU)、知识(GPQA)、编程(HumanEval)等多项性能基准上均超过了Gemma 7B和Mistral 7B Instruct,70B 模型则超越了名声在外的闭源模型 Claude 3的中间版本 Sonnet,和谷歌的 Gemini Pro 1.5 相比三胜两负。Meta还透露,Llama 3的 400B+ 模型仍在训练中。

Meta 顺利地保住了它在开源大模型领域的王座。

开源 Llama 3 的发布对整个大模型行业都是影响很大的事情,再次引发了对“开源与闭源之争”的热烈讨论。但大洋彼岸,回到国内,画风突变,有一种刺耳的声音在网络上蔓延——“Llama 3 发布,国内大模型又能有新突破了”。

甚至在 Llama 3 还未发布时,就能听到“国内要想赶超GPT-4,就等着 Llama 3 开源吧”的声音。

开源本身是一件致力于打破技术垄断、有利于促进整个行业不断进步、带来创新的事情,但每次Meta一开源,从Llama 到 Llama 3,国产大模型都要经历一次来自国人的嘲讽和贬低。

其实不止大模型,从云计算到自动驾驶,相似的论调经久不衰,究其原因,长久以来中国的技术一直跟在国外后面发展,长期被压一头、引发了国人的技术不自信,即便是在某些领域实现了领先,也会出现不信任、喝倒彩的声音。

但其实,经过一年的辛苦磨练和积累,如 Llama 这样的国外大模型一直很强的同时,国产大模型也可以后来者居上,变得很强,甚至在 Llama 3 发布之前,国产大模型就已经进化到 Llama 3 的效果,甚至强过 Llama 3 :

近日,清华大学 SuperBench 团队在前不久发布的《SuperBench大模型综合能力评测报告》基础上加测了 Llama 3 新发布的两个模型,测试了 Llama 3 在语义(ExtremeGLUE)、代码(NaturalCodeBench)、对齐(AlignBench)、智能体(AgentBench)和安全(SafetyBench)五个评测集中的表现。

SuperBench 团队共选取了如下列表模型,将Llama 3 放置到全球内的大模型行列中进行对比,除了国外主流的开源和闭源模型,也将 Llama 3 跟国内的主流模型进行对比。

对于闭源模型,SuperBench 团队选取 API 和网页两种调用模式中得分较高的一种进行评测。

根据他们发布的测评结果,可以得出以下结论:

(1)Llama 3-70B 版本在各个评测集上均差于 GPT-4 系列模型以及 Claude-3 Opus 等国际一流模型,在语义、代码两项评测中距离榜首差距最大,智能体评测中表现最好,排名第5;但考虑到模型参数量的差异,Llama 3-70B 整体表现还是不错的。

(2)和国内大模型对比,Llama 3-70B 在五项评测中超过了大多数国内模型,只落败于 GLM-4 和文心一言。

根据 SuperBench 标准测试结果可以发现,国产大模型早已有能强过  Llama 3 的大模型,国产大模型 GLM-4 和文心一言早就达到了 Llama 3 的实力,属于全球大模型竞争第一梯队。经过一年的追赶,国产大模型跟 GPT-4 的差距在不断缩小。

而这也让诸如“Llama 3 发布,国内大模型又能有新突破了”“国内要想赶超GPT-4,就等着 Llama 3 开源吧”的技术不自信论调,不攻自破。



1

GLM-4 、文心一言超过

Llama 3-70B

SuperBench大模型综合能力评测框架,是清华大学基础模型研究中心联合中关村实验室于2023年12月共同发布,其研发背景是基于过去一年里大模型领域的评测乱象——通过刷榜,各家大模型纷纷名列各大榜单第一,赶超GPT-4。

SuperBench 目的是提供客观、科学的评测标准,拨开迷雾,从而让外界对国产大模型的真正实力有更清晰的认知,让国产大模型从掩耳盗铃的虚幻中走出来,正视与国外的差距,脚踏实地。

目前,国内外均有一系列测试大模型能力的榜单,但时至今日,因为数据污染和基准泄露,大模型领域颇受关注的基准测试排名,其公平性和可靠性正在受到质疑,很多大模型用领域内数据刷榜来宣传、标榜自己已经成为基操,国内外都出现了一种诡异的现象——每每一个大模型推出,每一家都刷新了重要 Benchmark 榜单,各个都有重大突破,要么排名第一,要么超过GPT-4。

短短时间里,似乎大家都“遥遥领先”,实力不相上下了。但落到实践中,大多模型的性能表现往往差强人意,很多模型的性能表现和 GPT4 的差距还很大。

这种掩耳盗铃的行为,在过去一年里持续着,国内大模型陷入刷榜狂欢,但大家都心知肚明至今还没有模型能真正跟 GPT-4 比肩。毕竟,罗马不是一天建成的,摆在所有人面前的一道道鸿沟——技术上的突破和算力、资本的投入,让我们认清现实——我们与 OpenAI 的差距并不是一年半载就能填补的。

而刷榜风盛行引发的一大恶果是,外界对国产大模型的实力难以分辨,鱼目混珠中,一些真正有实力的大模型创业公司,应该融到的钱、吸引的人才却被那些擅长宣传、造势的给抢走了,引发劣币驱逐良币,影响了整个国产大模型的发展。

甚至如引言所述,一提到国产大模型,有部分人觉得反正都是刷榜刷出来的,有什么值得关注的?反正都比不上国外,妄自菲薄之下,给国产大模型喝倒彩的很多。

所以在评测大模型时,业界提出应该使用更多不同来源的基准,而SuperBench 团队来自国内顶尖学府清华大学,该团队具有多年的大模型研究经验,设计的 SuperBench 大模型综合能力评测框架具备开放性、动态性、科学性以及权威性等特点,其中最重要的是测评方法要具有公平性。

按照大模型能力重点的迁移过程——从语义、对其、代码、智能体到安全,SuperBench评测数据集包含ExtremeGLUE(语义)、NaturalCodeBench(代码)、AlignBench(对齐)、AgentBench(智能体)和SafetyBench(安全)五个基准数据集。

下面我们来看看详细测评结果,GLM-4 、文心一言在哪些能力上超过 Llama 3-70B:

(1)在语义测评中,整体表现:

在语义理解能力评测中,Llama 3-70B排名第6,落后Claude-3、GPT-4系列模型以及国内大模型GLM-4和文心一言4.0,距离榜首Claude-3仍有一定差距(相差8.7分),但是领先国内其他模型,整体处于第二梯队的榜首位置。

分类表现:

Llama 3-70B在语义理解的分类评测中表现最好的是数学,分数超过GPT-4系列模型,排名第4;在阅读理解和知识-科学两项评测中均表现也不错,均排名第6,其中阅读理解和榜首差距最小,只有4.3分差距;但是在知识-常识评测分数较低,获得60.9分,与榜首Claude-3有18.9分差距。

(2)在代码评测中,整体表现:

在代码编写能力评测中,Llama 3-70B排名第7,得37.1分,差于GPT-4系列模型和Claude-3等国际一流模型,以及GLM-4、文心一言4.0和讯飞星火3.5等国内模型;和GPT-4 Turbo差距较大,分差达到了13.7分。值得一提的是,Llama 3-8B的代码通过率超过了KimiChat网页版、云雀大模型等国内大模型。

分类表现:

Llama 3-70B在代码编写能力的分类评测中均表现一般,排名6-8位,和GPT-4系列模型以及Claude-3有较大差距,其中在英文代码指令-python评测中,Llama 3-70B和榜首的GPT-4 Turbo差距更是达到了20.3分;另外从本次评测中来看,Llama 3-70B并未表现出明显的中英文差距。

(3)在中文对齐评测中,整体表现:

在人类对齐能力评测中,Llama 3-70B排名第7,依然差于GPT-4系列模型和Claude-3;国内模型中,除文心一言4.0和GLM-4之外,通义千问2.1也在对齐评测中略超过Llama 3-70B;但是Llama 3-70B和排在前面的各家模型差距不大,距离榜首的GPT-4网页版仅有0.35分差距。

分类表现:

Llama 3-70B在中文推理评测中排名第7,和第一梯队的GPT-4系列模型以及文心一言4.0相差约0.6分;在中文语言评测中排名第8,但是和GPT-4系列模型、Claude-3分差较小,处于同一梯队,和榜首的KimiChat网页版也只有0.23分的差距。

(4)在智能体测评中,整理表现:

在作为智能体能力评测中,国内外大模型在本能力下均表现欠佳,Llama 3-70B在横向对比中表现不错,仅差于Claude-3、GPT-4系列模型以及国内模型GLM-4,排名第5。

分类表现:

Llama 3-70B在数据库(DB)、知识图谱(KG)、网上购物(Webshop)三个评测项中均进入了top3,但是距离榜首仍有一定差距;在操作系统(OS)、网页浏览(M2W)中也表现不错 ,排名第4和第5;情境猜谜(LTP)表现得0.5分,表现相对最差。

(5)在安全测评中,整体表现:

在安全能力评测中,Llama 3-70B得86.1分,排名第7,和排在前面的文心一言4.0、GPT-4系列、GLM-4等模型分数差距不大。

分类表现:

Llama 3-70B在安全能力的各分类评测中,偏见歧视(UB)在横向对比中表现相对最好,排名第4,其他评测排名在第7位及以后,但是和排在前面的模型分差不大,心理健康(MH)、隐私财产(PP)、身体健康(PH)均和榜首差距在3分之内。

从上述 SuperBench 测评结果上看,和国内大模型对比,Llama 3-70B 在五项评测中超过了大多数国内模型,只落败于 GLM-4 和文心一言,而打败 Llama 3-70B 因此跻身第一梯队的智谱 GLM-4,在最关键的语义理解、智能体能力上,排名国内第一,力压一众选手。

而智谱在过去一年里也是国内表现最为突出的大模型创业公司——技术突破和商业化都取得了领先的成绩。



2

要“复刻OpenAI”的中国大模型

公司,如今怎么样了?

过去一年里,中国诞生了多个大模型独角兽,而智谱是国内估值最快超过百亿人民币的公司之一。

其赢得大量资本青睐主要是因为它的 ChatGLM 模型——过去一年里,智谱以平均三个月的速度发布了三代基座大模型ChatGLM、ChatGLM2、ChatGLM3,2024年初智谱又发布了新一代基座大模型 GLM-4,性能紧逼 GPT-4。

而这也跟它的战略定位一致——全面对标OpenAI。

而上述 SuperBench 的测评结果再一次量化了 GLM-4 模型的能力,超过 Llama 3-70B ,逼近 GPT-4,跻身全球模型第一梯队。

分析智谱的发展历史和现状可以发现,智谱是一家将产学研结合地不错的公司。

在学术上,自推出新一代基座模型 GLM-4 之后,智谱已陆续发布了不少研究成果,涉及 LLM、多模态、长文本、对齐、评测、推理加速、Agent 等大模型产业的各个层面:

例如,评估大模型涌现能力的新视角——在大语言模型的研究和开发中,一个关键的探索点是如何理解和提升模型的“涌现能力”,传统观点认为,模型的大小和训练数据量是提升这种能力的决定性因素。而智谱发布的论文《Understanding Emergent Abilities of Language Models from the Loss Perspective》提出了一个新的视角:Loss 才是涌现的关键,而非模型参数。

智谱AI通过分析多个不同规模和数据量的语言模型,在多个英文和中文数据集上的表现,发现低预训练损失与模型在实际任务中的高性能呈负相关。这一发现不仅挑战了以往的常识,还为未来模型的优化提供了新的方向,即通过降低预训练损失来激发和提升模型的涌现能力。这种洞见为AI研究者和开发者在模型设计和评估中引入新的评价指标和方法提供了理论依据。

还有,将GLM-4 的 RLHF 技术公开,大语言模型对齐是关涉AI控制与AI安全的重要问题,只有确保模型的行为和输出与人类价值观和意图一致,才能让AI系统更安全、负责任且有效地服务于社会。对此,智谱AI开发了名为ChatGLM-RLHF的技术,通过整合人类的偏好来训练语言模型,使其产生更受欢迎的回答。

最后,智谱的大模型技术和学术研究都转化成了商业化成果。

今年3月,在 ChatGLM 的一周年期,智谱对外发布了一批商业化案例,并公布了其在商业化上取得了远超预期的成绩,包括圈定了超过 2000 家生态合作伙伴,1000 家规模化应用,与超过 200 家客户进行了深度共创。

而对比其他模型厂商,据了解,至今很多大模型公司依然没有找到合适的商业化路径,对比之下,智谱的商业化至少领先国内半年。

智谱CEO张鹏曾多次表达过这样一种观点:大模型商业化最大的拦路虎还是在技术,如果智谱真已经做到了 GPT-4 或者 GPT-5 的水平,很多商业化上的问题,如效果不好、价格高昂,甚至连商业模型都不用再考虑,只提供 API 就行。

这个说法同样适合整个大模型行业,智谱能在商业化上做到领先半年,其中一个最重要的因素就是其 ChatGLM 模型所表现出来的领先性。

学术研究、模型迭代不断赋能商业化,智谱今天的成绩也告诉行业,大模型行业产学研的性质,决定了那些在模型、商业、学术上多条腿走路的公司,势必将会走得更稳固。



3

后记

2023年 ChatGPT 引爆中文互联网,由此引发了国内外大模型创业潮。但中国的大模型并非无根之木,无源之水,只会跟随国外。

早在2021年,五道口智源人工智能研究院诞生了中国第一个万亿大模型“悟道”,由此开启了国产大模型的研究之路。

同样,经过过去一年的奋力追赶和学习,如GLM-4、文心一言这样的国产大模型打败了最强开源模型Llama 3,跻身全球竞争第一梯队,为只会跟随、模仿的国产技术正名。

过去一直强调要睁开眼看世界,学习国外,但大模型时代,看看国产大模型过去一年的变化,我们更多缺少的是正视国产技术的进步。

一位业内资深人士曾发出过如此感叹:明明国内的大模型公司也有很多技术创新,为什么大家只愿意关注国外,最后就变成了国外火了、国内才被注意到?

例如大模型初创公司智子引擎于2023年5月发表在arXiv上的论文研究VDT,跟2024年OpenAI发布的Sora“大撞车”——Sora背后的架构,与这支团队快1年前发表的论文提出的基于Transformer的Video统一生成框架,“可以说是几乎一模一样”。

Sora出世前,他们拿着这篇如今被ICLR 2024接收的论文VDT,十分费劲地为投资人、求知者讲了大半年,却处处碰壁。

春节后,Sora成为新晋顶流,打电话来约见团队的投资人排起了长队,都是要学习Sora、学习团队论文成果。

随着Sora 爆火,DiT架构大受关注,而国产多模态初创公司深数科技在2022年9月,便研发出了全球首个 Diffusion Transformer 架构 U-ViT 网络架构;

国产大模型创业公司面壁智能的Scaling Prediction,在世界范围内都能排在前列,能够和OpenAI比肩,甚至不输OpenAI;

国产大模型技术的创新性和领先性并不输国外,这样的例子还有很多。

所谓士别三日,当刮目相看。希望我们能多关注国产技术的创新,多多拥护国产技术。

本文作者(vx:zzjj752254)长期关注AI大模型领域的人、公司与行业动态,欢迎交流。

更多内容,点击下方关注:

未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!


公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
云天励飞余晓填:剖解大模型技术演进与挑战,算法芯片化突破大模型落地“三角约束”丨GenAICon 2024剑桥大学Nature: 氧化亚铜太阳能燃料技术突破大模型的“瘦身”革命:巨头逐鹿轻量化大模型 | 大模型一周大事我国首款!这一核心设备实现重大技术突破腾讯研发了快一年的混元文生图模型,说开源就开源了?打工人、宝妈、学生党都能用上大模型?6款国产大模型实用性测试小模型技术是中国企业率先导入装备中,大模型也不例外那些说国产大飞机不行的人,今天脸疼吗?长篇小说《谷雨立夏间》69 林中初吻苹果开源了!首次公开手机端侧大模型,AI iPhone 的细节就藏在里面AI视频技术突破静默,让每一帧画面实现声色同步 | 大模型一周大事重大技术突破!中国首款开源大模型火了!(附99个大模型微调模型/数据/工具)!卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了AI早知道|B 站开源轻量级 AI 语言模型;阿里通义Qwen2成最强开源大模型腾讯大模型APP真实测评!七家国产大模型“battle”,元宝顶得住吗?揭秘大模型技术在快手搜索的应用快速入门大模型技术与应用,推荐你从Stable Diffusion开始学起国产大模型Kimi爆火,公司为宕机致歉,记者实测→权力和财富的传承对话林咏华:刚在“AI春晚”上开源了3.4T数据集的智源,是如何死磕大模型数据难题的最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上32K上下文,Mistral 7B v0.2 基模型突然开源了今日arXiv最热CV大模型论文:国产开源视觉大模型InternVL 1.5发布,赶超GPT-4V水准一定要送他人喜欢而不是我们自己喜欢的东西作为礼物记住这一点就行了规格拉满!Llama和Sora作者都来刷脸的中国AI春晚,还开源了一大堆大模型成果南加,南加!西方塑造尤莉亚形象 为后普京时代准备新总统苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源阿里云进军大模型一年,现在是开源第一名,CTO:闭源要超过所有开源模型才有机会参与讨论周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理顶刊TPAMI 2024!计算机学会像人脑一样“听话”了!清华苑克鑫/胡晓林团队实现混合语音分离技术突破!架构师如何不错过大模型技术革命?一线实践都在这了|ArchSummit深圳 2024 议程上线美国封锁开源AI!国产大模型还能卷多久?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。