能编程,会搜索,中国原生大模型ChatGLM3发布
2023年注定是一个写进史书的AI爆发之年。
10月,2023中国计算机大会(CNCC)上,智谱AI推出了全自研的第三代基座大模型ChatGLM3及相关系列产品,这是智谱AI继推出千亿基座的对话模型ChatGLM和ChatGLM2之后的又一次重大突破。
● ● ●
此前,智谱AI和清华KEG共同开发了一款名为CogVLM-17B的人工智能模型。这款模型可以同时处理图像和文字,并能回答各种与图像有关的问题。它还可以将图像和文字的信息结合起来,提高自然语言处理任务的准确性。在多模态权威学术榜单上,目前CogVLM-17B是综合成绩第一的模型,在14个数据集中的10项权威跨模态基准上取得了SOTA性能,其余4项取得了第二名的成绩。
此次推出的ChatGLM3采用了独创的多阶段增强预训练方法,使训练更为充分。评测显示,在44个中英文公开数据集测试中,ChatGLM3在国内同尺寸模型中排名首位。
10月27日,智谱AI CEO张鹏在现场做了新品发布,并实时演示了最新上线的产品功能,以下为这款最新的中国原生大模型的技术亮点:
更丰富的训练数据,更优的训练方案,带来更高性能和更低成本
通过更丰富的训练数据和更优的训练方案,智谱AI推出的ChatGLM3性能更加强大。与ChatGLM2相比,在数据集MMLU(大规模多任务语言理解)的性能提升36%、C-EVAL(中文大模型评估基准)提升33%、GSM8K(小学数学应用题数据集)提升179% 、BBH(BIG-Bench Hard,测试语言模型的通用能力,例如推理、常识、逻辑)提升126%。
同时,对标GPT-4V,ChatGLM3本次实现了若干全新功能的迭代升级,包括多模态理解能力的CogVLM-看图识语义,在10余个国际标准图文评测数据集上取得SOTA;代码增强模块Code Interpreter根据用户需求生成代码并执行,自动完成数据分析、文件处理等复杂任务;网络搜索增强WebGLM-接入搜索增强,能自动根据问题在互联网上查找相关资料并在回答时提供参考相关文献或文章链接。ChatGLM3的语义能力与逻辑能力得到了极大的增强。
ChatGLM3还集成了自研的AgentTuning技术,激活了模型智能体能力,尤其在智能规划和执行方面,相比于ChatGLM2提升了1000% ;开启了国产大模型原生支持工具调用、代码执行、游戏、数据库操作、知识图谱搜索与推理、操作系统等复杂场景。
此外,ChatGLM3本次推出可手机部署的端测模型ChatGLM3-1.5B和 ChatGLM3-3B,支持包括vivo、小米、三星在内的多款手机以及车载平台,甚至支持移动平台上CPU芯片的推理,速度可达每秒20 tokens。精度方面1.5B和3B模型在公开benchmark上与ChatGLM2-6B模型性能接近。
基于最新的高效动态推理和显存优化技术,ChatGLM3当前的推理框架在相同硬件、模型条件下,相较于目前最佳的开源实现,包括伯克利大学推出的 vLLM 以及Hugging Face TGI的最新版本,推理速度提升了2-3倍,推理成本降低一倍,每千tokens仅0.5分,成本最低。
能编码,会搜索的新一代生成式AI助手
在全新升级的ChatGLM3赋能下,生成式AI助手智谱清言已成为国内首个具备代码交互能力的大模型产品(Code Interpreter:https://chatglm.cn/main/code)。
“代码”功能目前已支持图像处理、数学计算、数据分析等使用场景。以下分别为:
▪处理数据生成图表
▪代码绘制图形
▪上传SQL代码分析
随着WebGLM大模型能力的加入,智谱清言也具有了搜索增强能力,可以帮助用户整理出相关问题的网上文献或文章链接,并直接给出答案。
此前已发布的CogVLM 模型则提高了智谱清言的中文图文理解能力,取得了接近GPT-4V的图片理解能力,它可以回答各种类型的视觉问题,并且可以完成复杂的目标检测,并打上标签,完成自动数据标注。
国产大模型支持国产芯
自2022年初,智谱AI推出的GLM系列模型已支持在昇腾、神威超算、海光DCU架构上进行大规模预训练和推理。截至目前,智谱AI的产品已支持10余种国产硬件生态,包括昇腾、神威超算、海光DCU、海飞科、沐曦曦云、算能科技、天数智芯、寒武纪、摩尔线程、百度昆仑芯、灵汐科技、长城超云等。通过与国产芯片企业的联合创新,性能不断优化,将有助于国产原生大模型与国产芯片早日登上国际舞台。
智谱AI此次推出的ChatGLM3及相关系列产品,全面提升了自身的模型性能,为业界打造了更开放的开源生态,并进一步降低了普通用户使用AIGC产品的门槛。AI正在引领我们进入一个新的时代,大模型则将成为这一时刻到来的重要加速器。
微信扫码关注该文公众号作者