Redian新闻
>
清华系千亿基座对话模型ChatGLM开启内测,单卡版模型已全面开源

清华系千亿基座对话模型ChatGLM开启内测,单卡版模型已全面开源

公众号新闻

出品 | OSC开源社区(ID:oschina2013)

由清华技术成果转化的公司智谱 AI 宣布开源了 GLM 系列模型的新成员 —— 中英双语对话模型 ChatGLM-6B,支持在单张消费级显卡上进行推理使用。这是继此前开源 GLM-130B 千亿基座模型之后,智谱 AI 再次推出大模型方向的研究成果。

此外,基于千亿基座的 ChatGLM 线上模型目前也在 chatglm.cn 进行邀请制内测,用户需要使用邀请码进行注册,也可以填写基本信息申请内测。

根据介绍,ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,并针对中文进行了优化。该模型基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。

ChatGLM-6B 使用了和 ChatGLM 相同的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 虽然规模不及千亿模型,但大大降低了推理成本,提升了效率,并且已经能生成相当符合人类偏好的回答。

ChatGLM-6B 具备以下特点:

  • 充分的中英双语预训练:ChatGLM-6B 在 1:1 比例的中英语料上训练了 1T 的 token 量,兼具双语能力。
  • 优化的模型架构和大小:吸取 GLM-130B 训练经验,修正了二维 RoPE 位置编码实现,使用传统 FFN 结构。6B(62 亿)的参数大小,也使得研究者和个人开发者自己微调和部署 ChatGLM-6B 成为可能。
  • 较低的部署门槛:FP16 半精度下,ChatGLM-6B 需要至少 13 GB 的显存进行推理,结合模型量化技术,这一需求可以进一步降低到 10GB(INT8) 和 6GB(INT4),使得 ChatGLM-6B 可以部署在消费级显卡上。
  • 更长的序列长度:相比 GLM-10B(序列长度 1024),ChatGLM-6B 序列长度达 2048,支持更长对话和应用。
  • 人类意图对齐训练:使用了监督微调(Supervised Fine-Tuning)、反馈自助(Feedback Bootstrap)、人类反馈强化学习(Reinforcement Learning from Human Feedback)等方式,使模型初具理解人类指令意图的能力。输出格式为 markdown,方便展示。

基于以上特点,ChatGLM-6B 在一定条件下具备较好的对话与问答能力。ChatGLM-6B 的对话效果展示如下:

不过由于 ChatGLM-6B 模型的容量较小,不可避免地存在一些局限和不足,包括:

  • 相对较弱的模型记忆和语言能力。在面对许多事实性知识任务时,ChatGLM-6B 可能会生成不正确的信息,也不太擅长逻辑类问题(如数学、编程)的解答。
  • 可能会产生有害说明或有偏见的内容:ChatGLM-6B 只是一个初步与人类意图对齐的语言模型,可能会生成有害、有偏见的内容。
  • 较弱的多轮对话能力:ChatGLM-6B 的上下文理解能力还不够充分,在面对长答案生成和多轮对话的场景时,可能会出现上下文丢失和理解错误的情况。

相比起 ChatGLM-6B,ChatGLM 参考了 ChatGPT 的设计思路,在千亿基座模型 GLM-130B 中注入了代码预训练,通过有监督微调(Supervised Fine-Tuning)等技术实现人类意图对齐。ChatGLM 线上模型的能力提升主要来源于独特的千亿基座模型 GLM-130B。它采用了不同于 BERT、GPT-3 以及 T5 的 GLM 架构,是一个包含多目标函数的自回归预训练模型。

GLM 团队表示,2022 年 11 月,斯坦福大学大模型中心对全球 30 个主流大模型进行了全方位的评测,GLM-130B 是亚洲唯一入选的大模型。在与 OpenAI、Google Brain、微软、英伟达、Meta AI 的各大模型对比中,评测报告显示 GLM-130B 在准确性和公平性指标上与 GPT-3 175B (davinci) 接近或持平,鲁棒性、校准误差和无偏性则优于 GPT-3 175B。 

由 ChatGLM 生成的对话效果展示:

不过 GLM 团队也坦言,整体来说 ChatGLM 距离国际顶尖大模型研究和产品(比如 OpenAI 的 ChatGPT 及下一代 GPT 模型)还存在一定的差距。该团队表示,将持续研发并开源更新版本的 ChatGLM 和相关模型。“欢迎大家下载 ChatGLM-6B,基于它进行研究和(非商用)应用开发。GLM 团队希望能和开源社区研究者和开发者一起,推动大模型研究和应用在中国的发展。”

更多详情可查看官方博客:https://chatglm.cn/blog


END



一场持续20年曾威胁Linux存亡的诉讼


这里有最新开源资讯、软件更新、技术干货等内容

点这里 ↓↓↓ 记得 关注✔ 标星⭐ 哦

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
科大讯飞刘庆峰:星火大模型已在三个方面超越ChatGPT中文对话大模型BELLE全面开源!(附:数据+模型+轻量化)VPGTrans: 用10%的成本定制一个你自己的GPT4多模态对话模型部署国产ChatGPT仅需6G显存!ChatYuan模型开放下载:业内首个功能型对话开源中文大模型流浪地球正版模型!拼出夜光版运兵车、机器狗笨笨、领航员空间站VPGTrans:10% 的成本定制你自己的类 GPT-4 多模态对话模型北大、西湖大学等开源「裁判大模型」PandaLM:三行代码全自动评估LLM,准确率达ChatGPT的94%到底谁是凶手?调用多个ChatGPT API相互对话,清华开源的多轮对话数据UltraChat来了秦力洪称蔚来手机无系统广告,二季度开启内测圣诞节回忆我们的美国人生3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow谷歌没开源的PaLM,网友给开源了!千亿参数微缩版:最大只有10亿,8k上下文撼讯RX6750XT红魔,单卡套餐3299、3159元,(5799元游戏主机演示、R7-5700X)光伏价格战,已全面开打!Meta发布全新大语言模型,号称比ChatGPT更强,单GPU上就能跑,后续或将开源周末愉快 过小年清华系千亿基座对话模型ChatGLM启动内测,开源单卡版模型(10个邀请码)VPGTrans: 用10%的成本定制一个你自己的GPT-4多模态对话模型GPT-4刷屏,这家中国AI企业多模态大模型已落地应用多年,新版本内测了(可申请)他们开源了GitHub上最火的双语对话模型,还说AI胡说八道不需要被纠正早鸟报|小红书内测笔记带货功能;抖音试水低价电商;微软官宣全面开放BingChat...UC伯克利发布大语言模型排行榜!Vicuna夺冠,清华ChatGLM进前5国产类ChatGPT密集开测,单卡能跑大模型,生成式AI热潮爆发瑞幸联名哆啦A梦;阿里版GPT开启内测;GUCCI首家豪华沙龙概念店开业…| 刀法品牌热讯杭电小哥抢先搞定GPT读图功能,单卡就能实现新SOTA,代码已开源|CVPR2023港科大开源LMFlow!3090单卡5小时,每个人都能训练专属ChatGPT拜年贴,我最喜欢的服装ChatGPT逼急谷歌CEO皮查伊:开启万人全员内测,每人花2~4小时玩Bard超级对话模型 ChatGPT,除了对话还能做什么?清华系ChatGPT发布!唐杰团队打造,专对中文优化,还能把握最新新闻动态MIUI 14 第一批正式版机型已全量推送,共支持11款机型德国巴伐利亚州长接见《流浪地球》正版模型~行星发动机,领航员计划火箭,亲手搭出一部科幻大片!开源模型、单卡训练,带你了解爆火的文本指导音频生成技术AudioLDM
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。