Redian新闻
>
盘点当前已部署在Graphcore IPU上的AI大模型

盘点当前已部署在Graphcore IPU上的AI大模型

公众号新闻

AI大模型已经展现出了非常广泛的应用前景,它所表现出的强大能力也使人们看到了它的无限可能。随着AI大模型的飞速发展,高昂的成本门槛也让许多从业者对大模型望而却步,而有能力负担高额投入的从业者也面临着商业化的压力……


Graphcore(拟未)IPU非常适合运行精细化、高性能的AI计算和稀疏化计算,在功耗上亦有优秀的表现。同时,Graphcore拥有完备的软件库,可以对目前市面上80%的主流AI模型实现一键转换,实现零代码迁移且兼顾模型性能。当前已部署在IPU上的AI大模型都有哪些?IPU给它们带来了哪些提升?让我们一睹为快!


ChatGLM:无需代码优化

无损部署,实现毫秒级低延时


在ChatGLM开源初期,Graphcore IPU已经率先实现了对中英双语模型ChatGLM-6B的支持,使用IPU运行的ChatGLM-6B,通过模型并行优化和算子融合,以及诸多算子的底层优化,充分发挥IPU的近存计算架构带来的算力优势。大量的片上存储空间可以很好地支持模型参数存储,降低在推理过程中和片外存储交互的需求,打破IO bound的限制,极大地释放计算单元的能力。


运行在IPU上的ChatGLM-6B模型拥有令人印象深刻的超低延时,在FP16精度下,每个token平均耗时仅有3.5毫秒,在日常聊天、文本摘要、辅助写作、代码编写等方面,都能生成相当符合人类偏好的回答。目前ChatGLM-6B可以无损、快速地部署在IPU上,而不会因为性能优化而牺牲模型的精度和参数量,相对ChatGPT来说,ChatGLM-6B这一轻量化的模型可以在本地AI计算硬件上以较低成本部署,大大降低了用户部署的门槛。



GPT2-XL:C600加持

精度速度两手抓


如今,GPT家族模型中,十亿级参数的GPT-2已经在C600上成功部署,C600 PCIe卡集成了1个IPU,主打推理,兼做训练,在提供低延时、高吞吐量的同时不损失精度,帮助AI开发人员解决“精度与速度难两全”的痛点。


考虑到计算成本压力,GPT-2是在商业用例中逐渐被广泛应用的GPT类模型。在C600上GPT2-XL的推理延时已经达到1 ms/token的水平。即使在输入长度为512,输出长度也是512这种长序列的情况下,端到端的总延时也仅有658 ms,这意味着在实际应用场景中,模型可以快速响应用户的请求,极大地提高了用户体验。不仅如此,该模型在FP16精度下训练完成后,可以直接部署在IPU上,不需要担心模型量化带来的精度损失等问题,不仅优化了算法工程师的体验,也缩短了模型迭代的周期。同时,C600的散热设计功耗为185 W,在GPT2-XL的实际推理过程中,C600的平均功耗仅为30 W,优秀的功耗比来带颇具竞争力的TCO,十分适合需要长期运行的AIGC服务。



GPT-J:小模型高性能

降本增效解决下游任务



由于从头开始训练类似ChatGPT规模的模型所需的高成本,对于许多公司来说,像GPT-J这样更高效、高性能的小型模型是正确的选择。GPT-J现在可以在Graphcore IPU产品如Bow Pod系统和C600 PCIe卡上轻松运行,在IPU上使用Paperspace Gradient Notebooks运行,可用于推理和fine-tune。


对于下游任务,如问题回答、命名实体识别、情感分析和文本分类,GPT-J可以轻松地进行fine-tune以提供SOTA结果。在fine-tune过程中,模型会学习将给定的格式与任务进行关联。由于解决该任务所需的所有语言理解能力都已经存在于预训练的模型中,fine-tune只是为了学习提示与任务之间的关联,因此成本相对较低。


Stable Diffusion:

IPU加持算力,让想象力爆发


Stable Diffusion是AIGC技术革命的耀眼明星之一,并因其令人惊叹的图像和灵活性而深受好评。它可以提供文本到图像、图像到图像和文本引导的绘画。


Graphcore和Paperspace首次在IPU上引入了Stable Diffusion模型,以配合全新推出的高级版notebook。面向Graphcore IPU的Stable Diffusion 2.0也很快将与Paperspace Gradient Notebook一起面世。


扫描下方二维码

免费试用Stable Diffusion



Dolly 2.0:IPU赋能商用大模型

给AI以个性


在Dolly 2.0开源近两周后,Graphcore IPU便率先实现了对其的支持。作为开源的大型语言模型(LLM),Dolly 2.0可以提供类似ChatGPT的指令跟随交互性。Dolly 2.0的训练权重、源代码和数据集已在开源和商业使用许可下发布,使其成为第一个真正开放的指令微调LLM。之前的模型受制于更严格的许可,无法用于商业应用。


与Dolly互动是一个很有趣的过程。通过微调,它还可以在回答用户问题时具备特定的个性。现在,它可以与适当的安全过滤器一起使用,以获得真实世界的信息,或者只是作为一个有趣的品牌角色。Dolly 2.0可使用由Graphcore IPU驱动的Paperspace Gradient Notebook。


扫描下方二维码

免费试用Dolly 2.0



未来,Graphcore将以聚焦和定力,打磨产品、持续创新,与各行各业继续深化合作,共同建设和繁荣中AI大模型生态,以IPU的算力让更多人享受到AIGC技术带来的效率提升,而不再受限于成本和技术门槛,帮助激发人们进行AI创新和探索的热情,助力实现下一代模型的突破。





获取更多Graphcore资讯,阅读深度技术文章,并与其他创新者们一起交流,请至中国官网graphcore.cn,以及关注Graphcore微信、微博和知乎创新社区。

Graphcore中国官网

Graphcore官方微信

Graphcore微博创新社区

Graphcore知乎创新社区

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
之江实验室图计算中心副主任陈红阳:生物制药 × Graph AI 大模型Graphcore:英国的寒武纪为何触礁?中共吉林省委《关于贯彻党中央决策部署在全省大兴调查研究的实施方案》TEMPO-HCM试验发布,HCM患者进行长程心电图监测或可发现更多的心律失常| EHRA 2023吴冠中以一幅画设立了一个奖学基金坚持做行业大模型,竹间智能给大模型造了一座「模型工厂」2023 WAIC | 亮点抢先看,Graphcore展台指北Amid Recovery Push, Street Vendors Make a Comeback Across China完成Pre-A+轮融资,语言大模型企业「澜舟科技」推出孟子MChat可控大模型|36氪首发强力“推背”,ChatGLM-6B在IPU上跑出3.5ms/token速度AIGC时代,如何在IPU上部署经济且高效的GPT模型?最新一季《锵锵行天下》 - 西湖真美。我发小就一直生活在西湖畔,羡慕死我了。说好退休后去她那儿歇一段日子大模型落地:GPU向上,NPU向下AI 智能编程工具 aiXcoder 推出企业版,采用百亿级规模参数大模型进行个性化训练,支持私有化部署连坐与公务员美敦促其公民立即离开俄罗斯!美军已部署完成对俄核战争的反制...纽约州莫霍克山屋(Mohonk Mountain House),阳光映入百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报猫本吐槽 | 墨尔本华人晚9点逛街手机差点当街被teenager抢iPhone两秒出图,目前已知的最快移动端Stable Diffusion模型来了阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl冒雨观看圣帕特里克节游行(多图)2023中关村论坛展览 | 您有一封Graphcore的邀请函等待查收不见不散,Graphcore即将亮相WIC 2023阿贡国家实验室向全球研究人员提供Graphcore Bow IPUAI 模型只能部署在云端?高通白皮书发布:混合 AI 是 AI 的未来大模型变“小”:黑马天启开创AI模型“重度垂直”新思路,入选北京大模型行业应用典型案例美B52模拟对俄核打击,俄罗斯能忍?图-160或加速部署在美国后院“打包”BERT,Graphcore助力Pienso大语言模型更高效一家自然语言处理AI公司的末世之舞:倒在GPT大模型的狂潮到来前实现零代码模型推理部署,Graphcore PopRT正式推出只给大模型LeetCode编号,也能解题!大模型表现好是源于对训练数据的记忆吗?请不要迷信大模型中国团队自动驾驶大模型斩获CVPR最佳论文;Stability AI推出新文生图模型;京东大模型即将发布丨AIGC大事日报maxsun GeForce GTX 1660 Super Terminator Computer Video Graphics大温这儿发生山火!大温重要高速封路 现已部分重开
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。