Redian新闻
>
国产类ChatGPT密集开测,单卡能跑大模型,生成式AI热潮爆发

国产类ChatGPT密集开测,单卡能跑大模型,生成式AI热潮爆发

科技

୧(๑•̀◡•́๑)૭头图由AI创作

大模型、生成式AI热潮正汹涌而来。
作者 |  ZeR0
编辑 |  漠影
智东西3月15日报道,最近几天,大模型和生成式AI领域可谓是群英荟萃,进展连连。上周,国内首个可供体验的类ChatGPT模型海豚AI助手上线(http://zhimachat.com/),邀请公众参与测试。本周又有多项重要进展令人应接不暇。

本周二,由清华技术成果转化的公司智谱AI推出了基于千亿基座模型的ChatGLM,初具问答和对话功能,现已开启邀请制内测,并将逐步扩大内测范围。(内测申请网址:chatglm.cn

同期,智谱AI还开源了GLM系列模型的中英双语对话模型ChatGLM-6B,支持在单张消费级显卡上进行推理使用。
Georgi Gerganov最近也做了个能在苹果M1/M2芯片上跑Meta开源大型语言模型LLaMA的项目llama.cpp。此前Meta声称LLaMA-13B在大多数基准测试中的表现优于GPT-3(175B)。
斯坦福大学亦于周二发布了一个由LLaMA微调的全新开源模型Alpaca训练3小时,性能媲美GPT-3.5,而训练成本不到600美元。其中在8个80GB A100上训练了3个小时成本不到100美元,生成数据使用OpenAI API的成本不到500美元。

这两个项目都得到了图灵奖得主、深度学习三巨头之一、Meta首席AI科学家杨立昆(Yann LeCun)的转发支持。

同日,谷歌宣布开放大型语言模型PaLM的API,帮助企业“从简单的自然语言提示中生成文本、图像、代码、视频、音频等”。谷歌还推出了一款与PaLM API搭配使用的新应用MakerSuite,用户可以用它迭代提示、使用合成数据扩充数据集、轻松调整自定义模型。
大模型及生成式AI的研发与应用,正肉眼可见地热闹起来。

01.
类ChatGPT产品海豚AI助手上线
公开可体验


上周,海豚团队宣布已成功开发了国内首个可供体验的类ChatGPT模型,并将其发布到了公开平台,欢迎公众参与测试。

体验直达:http://zhimachat.com/
海豚团队介绍道,海豚AI助手是一款类似于ChatGPT大语言模型的AI产品,具有帮助用户获取知识高效写作辅助决策的功能。智东西分别对三项功能进行了体验。
获取知识方面,海豚会根据用户的提问,自动搜索相关文献并提供详细的解释和解答,相比传统搜索引擎更加快捷和准确。海豚还支持对于一些特定领域的深度探索,比如医疗、法律、金融等。比如你可以问它疾病的症状、法律条文的解释、金融产品的分析等等。

高效写作方面,海豚能够自动生成文本,帮助用户撰写作文、论文、邮件、演讲稿等,并能够为用户提供写作建议和优化方案,还可以为用户提供各种写作模板和格式化工具。

辅助决策方面,海豚可以自动为用户提供相关的数据和分析结果,并为用户提供决策建议和优化方案;还可以为用户提供各种决策模型和工具。下图是海豚AI助手针对“6岁小孩怎么学习计算机编程”问题给出的回答。

据介绍,海豚团队拥有自主研发的NLP大模型,对话机器人等核心技术,并通过软硬结合的方式,将AI助手融入到“手机”、“机器人”、“车载”、“家居”四大场景中,为用户提供日常生活所需的全方位服务。
其团队成员主要由毕业于清华大学、南京大学、加州大学伯克利分校、香港中文大学等知名高校,以及工作于IBM、腾讯、华为等国内外IT公司的资深员工组成。

02.
千亿参数对话模型启动内测
多轮聊天流畅,能写稿能编程


由清华大学计算机系技术成果转化而来的公司智谱AI,现已开启ChatGLM线上模型的内测。用户需要使用邀请码进行注册,也可以填写基本信息申请内测。

ChatGLM地址:chatglm.cn
智东西也对ChatGLM的多轮对话内容生成辅助编程等能力进行体验。
问它《流浪地球》讲了什么,回答基本无误。

在提供建议上,它也是个合格的助手。

让它给AIGC创新峰会写个开场白,成文速度飞快,指出错误后能迅速修改。

写一个能在MacBook上跑的贪吃蛇游戏程序也不在话下:

ChatGLM线上模型的能力提升主要来源于独特的千亿基座模型GLM-130B。它采用了不同于BERT、GPT-3以及T5的GLM架构,是一个包含多目标函数的自回归预训练模型。
智谱AI致力于打造新一代认知智能通用模型,提出了Model as a Service(MaaS)的市场理念,于2021年合作研发了双语千亿级超大规模预训练模型GLM-130B,主导构建了高精度通用知识图谱,把两者有机融合为数据与知识双轮驱动的认知引擎,并基于此千亿基座模型打造ChatGLM。
GLM开源地址:https://github.com/THUDM/GLM
2022年11月,斯坦福大学大模型中心对全球30个主流大模型进行了全方位的评测,GLM-130B是亚洲唯一入选的大模型。在与OpenAI、Google Brain、微软、英伟达、Meta AI的各大模型对比中,评测报告显示GLM-130B在准确性和恶意性指标上与GPT-3 175Bdavinci)接近或持平
GLM团队在博客文章中坦言,ChatGLM距离国际顶尖大模型研究和产品还有一定差距,他们将持续研发并开源更新版本的ChatGLM和相关模型。
博客文章:https://chatglm.cn/blog
智谱AI也推出了认知大模型平台Bigmodel.ai,形成AIGC产品矩阵,包括高效率代码模型CodeGeeX、高精度文图生成模型CogView等,提供智能API服务。

03.
62亿参数对话模型已开源
支持单卡推理


除了开启ChatGLM内测外,智谱AI还将支持中英双语问答的对话语言模型ChatGLM-6B开源,并针对中文进行了优化。
该模型基于General Language Model(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。
ChatGLM-6B使用了和ChatGLM相同的技术,针对中文问答和对话进行了优化,具备较好的对话与问答能力。以下是其对话效果的一些示例:

开源地址:https://github.com/THUDM/ChatGLM-6B
经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62亿参数的ChatGLM-6B虽然规模不及千亿模型,但大大降低了推理成本,提升了效率,并且已经能生成相当符合人类偏好的回答。
具体来说,ChatGLM-6B具备以下特点:
1)充分的中英双语预训练:在1:1比例的中英语料上训练了1T的token量,兼具双语能力。
2)优化的模型架构和大小:吸取GLM-130B训练经验,修正了二维RoPE位置编码实现,使用传统FFN结构。62亿的参数大小,使研究者和个人开发者自己微调和部署ChatGLM-6B成为可能。
3)较低的部署门槛:FP16半精度下,需要至少13GB的显存进行推理,结合模型量化技术,这一需求可以进一步降低到10GB(INT8)和6GB(INT4),使模型可部署在消费级显卡上。
4)更长的序列长度:相比GLM-10B(序列长度1024),序列长度达2048,支持更长对话和应用。
5)人类意图对齐训练:使用监督微调、反馈自助、人类反馈强化学习等方式,使模型初具理解人类指令意图的能力。输出格式为markdown,方便展示。
不过由于ChatGLM-6B模型的容量较小,不可避免的存在一些局限和不足,包括:
1)相对较弱的模型记忆和语言能力:在面对事实性知识任务时,可能会生成不正确的信息,也不太擅长逻辑类问题(如数学、编程)的解答。
2)可能会产生有害说明或有偏见的内容:ChatGLM-6B只是一个初步与人类意图对齐的语言模型,可能会生成有害、有偏见的内容。
3)较弱的多轮对话能力:上下文理解能力还不够充分,在面对长答案生成和多轮对话的场景时,可能会出现上下文丢失和理解错误的情况。
感兴趣的开发者可以下载ChatGLM-6B,基于它进行研究和(非商用)应用开发。GLM团队希望能和开源社区研究者和开发者一起,推动大模型研究和应用在中国的发展。

04.
在苹果M1/M2芯片上跑LLaMA


Georgi Gerganov近日公布了一个没有专用GPU也能跑Meta大模型LLaMA的项目llama.cpp


llama.cpp地址:

https://github.com/ggerganov/llama.cpp
在基于苹果M1芯片的Mac上运行LLaMA涉及多个步骤,感兴趣的朋友可以参见教程( https://dev.l1x.be/posts/2023/03/12/using-llama-with-m1-mac/)。

在基于M1/M2芯片的64GB MacBook Pro上跑拥有70亿参数和130亿参数的LLaMA大模型可参见(https://til.simonwillison.net/llms/llama-7b-m2)。

如图所示,在M1/M2 MacBook电脑上跑LLaMA 70B大模型,输入提示词“登月第一个人是”,得到上述结果,从阿姆斯特朗登月的年龄、中间名和日期来看,没有出现明显的事实性错误。
研发人员Artem Andreenko说,他已在4GB RAM Raspberry Pi 4上成功运行LLaMA 7B 模型。尽管速度很慢,大约10秒/token,但这展现了在便宜的硬件上运行强大认知pipelines的可能。


05.
斯坦福开源模型Alpaca:
性能媲美GPT-3.5,成本不到600美元


斯坦福大学在本周二发布了一个由LLaMA微调的全新开源指令跟随模型Alpaca,仅供研究使用,禁止用于任何商业用途。
该模型通过在52k生成指令上对LLaMA 7B进行微调实现,性能表现得像OpenAI GPT-3.5(text-davinci-003),而训练成本不到600美元,因此便于复制及广泛部署。


官网:

https://crfm.stanford.edu/2023/03/13/alpaca.html

模型:
https://crfm.stanford.edu/alpaca
GitHub地址:
https://github.com/tatsu-lab/stanford_alpaca
该团队的目标是构建一个简单的模型/训练程序,让学者们可以用有限的资源进行研究和改进。
具体而言,Alpaca模型使用来自LLaMA 7B模型的监督学习进行了微调,基于来自OpenAI text-davinci-003的52K指令跟随示例。

该团队从自生成指令种子集中的175个人工编写的指令-输出对开始,然后提示text-davinci-003使用种子集作为上下文示例生成更多的指令,通过简化生成pipeline来改进自生成指令方法,并显著降低了成本。
其数据生成过程产生了52K独特指令和相应的输出,使用OpenAI API的成本不到500美元
在配备了这个指令跟随数据集之后,该研究团队使用Hugging Face的训练框架,利用完全分片数据并行和混合精度训练等技术,对LLaMA模型进行了微调。在8个80GB A100上对7B LLaMA模型进行微调需要3个小时,这在大多数云计算供应商上花费的成本不到100美元
Demo:https://crfm.stanford.edu/alpaca/
Alpaca团队正在发布其训练配方和数据,并打算后续发布模型权重。

06.
谷歌开放PaLM API
推出生成式AI新平台


本周二,谷歌宣布开放大型语言模型PaLM API,帮助企业“从简单的自然语言提示中生成文本、图像、代码、视频、音频等”。下图是生成式AI在谷歌文档中帮助撰写职位描述的示例。

谷歌还推出了一款与PaLM API搭配使用的新应用MakerSuite,用户可以用它迭代提示、使用合成数据扩充数据集、轻松调整自定义模型。
计算密集型的训练和部署工作由谷歌云处理。同时,谷歌在其帮助企业训练和部署机器学习模型的Vertex AI平台中扩大对生成式AI的支持,允许用户访问由Google Research及DeepMind构建的更多模型,未来还将能利用开源和第三方系统。
此外,谷歌推出一个生成式AI新平台Generative AI App Builder,允许开发人员快速发布新体验,包括机器人、聊天界面、自定义搜索引擎、数字助理等。开发者可以通过API访问谷歌的基础模型,并可以使用开箱即用的模板在几分钟或几小时内快速启动生成式应用的创建。

博客文章:https://blog.google/technology/ai/ai-developers-google-cloud-workspace/


07.
结语:生成式AI热潮正汹涌而来


毋庸置疑,大模型及生成式AI领域正变得越来越热闹,相关的研发与创意正喷涌而出。
我们既看到科研团队站在开源模型的肩膀上,研发出更廉价易得、能跑在消费级硬件上同时性能媲美GPT-3.5的大模型,又看到谷歌等科技巨头试图将更多AI工具及服务供给企业级用户。
3月24日,「GTIC 2023中国AIGC创新峰会」将以“AI新纪元 创造新世界”为主题,汇聚20+位重量级嘉宾进行主题演讲和圆桌讨论,全景式解构大模型与生成式AI开启的新世界。文末海报扫码」即可报名参会。
生成式AI时代的大幕已然拉开,尽情享受吧!
(本文系网易新闻•网易号特色内容激励计划签约账号【智东西】原创内容,未经账号授权,禁止随意转载。)


  

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
用ChatGPT「指挥」数百个模型,HuggingGPT让专业模型干专业事清华系千亿基座对话模型ChatGLM开启内测,单卡版模型已全面开源部署国产ChatGPT仅需6G显存!ChatYuan模型开放下载:业内首个功能型对话开源中文大模型剽窃、作弊,ChatGPT竟偷偷生成了12篇署名论文!Marcus炮轰Ta变成CheatGPT孟晚舟将首次出任华为轮值董事长/ 百度All in类ChatGPT项目/ 知乎因ChatGPT大涨50%…今日更多新鲜事在此写周报、改代码,连续互动20轮,国产类ChatGPT新玩家「天工」来了(赠邀请码)难诉相思,送谢莉斯老师回国, 十年签证可办了ChatGPT爆火背后,生成式AI是否只是「昙花一现」?Meta连夜加入AI大模型混战!用1/10参数量干过GPT-3,单个GPU就能跑用 AI 对抗 AI!斯坦福研究人员推出 DetectGPT,专门检测 ChatGPT 等模型生成的文本单卡就能跑的大模型等效GPT-3!Meta发布大语言模型LLaMA,大小从7B到65B不等陈天奇等人新作引爆AI界!手机原生跑大模型,算力不是问题了复旦放大招,国内首个类ChatGPT大模型开放测试!《流浪地球》MOSS照进现实这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3iPhone 15 Pro系列或涨价/苹果在做类ChatGPT产品/OpenAI联合创始人谈GPT-4杭电小哥抢先搞定GPT读图功能,单卡就能实现新SOTA,代码已开源|CVPR2023谷歌发大模型PaLM 2对抗GPT-4,生成式AI融入谷歌搜索,急切反击背后,搜索摇钱树要倒?一个老海归的“逃出”吃在邮轮国内首个类ChatGPT模型发布/苹果阻止免费安装iOS 17开测版/小米汽车再曝光清华系千亿基座对话模型ChatGLM启动内测,开源单卡版模型(10个邀请码)GPT-4震撼发布:多模态大模型,升级ChatGPT和必应,开放API,太太太强了!央视春晚的元宇宙技术,微软发布AI声音生成工具VALL-E,百度将推出类ChatGPT风格机器人,2023WebRTC预测…你看好哪家国产版类ChatGPT?GPT-4震撼发布:多模态大模型,直接升级ChatGPT、必应,开放API,游戏终结了?“文心一言”后又见“商量”、“天工”、“智脑”,好多国产类ChatGPT产品即将面世Meta发布全新大语言模型,号称比ChatGPT更强,单GPU上就能跑,后续或将开源2023 內心成熟的人,看誰都顺眼!直播预告:大模型在多维多组学MDMM靶点开发中的应用和生成式医学影像智能报告系统ReportGPT百度官宣类ChatGPT大模型新项目:文心一言集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布世界首款真开源类ChatGPT大模型Dolly 2.0,可随意修改商用东方甄选回应直播间疑似售假;美国要求字节出售TikTok股份;苹果正开发类ChatGPT技术;GPT-4接入Office丨邦早报ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。