- “码”到“程”功,致敬代码背后最可爱的人
1024程序员节1024 PROGRAMMER'S DAY无数个深夜,无数行代码无数个烦恼和灵感在程序里循环你们是数字世界的艺术家也是现实世界的造梦者#1024程序员节,致敬代码背后最可爱的人!获取更多Graphcore资讯,阅读深度技术文章,并与其他创新者们一起交流,请至中国官网graphcore
- 在Graphcore IPU上运行Julia
作为伦敦大学学院的研究软件开发人员,自2016年以来一直在使用Julia编程语言。我也对尝试在一些有趣的硬件上使用Julia这件事充满好奇心。因此我在Graphcore(拟未) IPUs上尝试实现运行Julia。然而,我不是一名编译器工程师。您可以尝试在IPU上免费运行用Julia编写的代码,使用P
- GACS 2023 | IPU:赋能生成式AI,不止生成式AI
生成式AI的热潮让人工智能再次成为了现象级的话题。生成式AI展现出了惊人的性能,但在业界积极探索其赋能千行百业的巨大潜能时,人们也认识到,如果需要将生成式AI更为广泛,更为深入地应用到现实世界中,我们仍然面临着新的挑战。9月14日至15日,2023全球AI芯片峰会(GACS 2023)在深圳举办。G
- 卢涛:后登纳德时代,IPU架构引领Transformer向高阶版演进
在人工智能蓬勃发展的今天,人们对算力的需求达到了前所未有的高度,这为芯片行业带来了空前的挑战和机遇。同时,人们也不禁思考,芯片行业未来的发展方向究竟是怎样的?9月15日,在2023世界计算大会上,Graphcore总裁兼大中华区总经理卢涛受邀出席,并发表演讲,分享了其对于芯片行业工艺的洞察以及对未来
- Graphcore专区已在飞桨AI Studio上线
Graphcore专区现已在飞桨AI Studio硬件生态专区上线AI Studio是基于百度深度学习平台飞桨的人工智能学习与实训社区,为超369万AI学习者提供在线课程与一站式开发实训平台。今年4月,飞桨AI Studio硬件生态专区正式发布。它的建立将有助于提升硬件底层开发体验感,帮助更多开发者
- Graphcore携手Pienso荣获CogX最佳创新类别的自然语言处理奖
Graphcore(拟未)和Pienso在硬件与软件领域的合作荣获CogX最佳创新类别的自然语言处理奖。Graphcore和Pienso之间的合作展示了满足广大消费者需求的新型人工智能产品如何能够从真正为人工智能打造的计算架构中受益,以及这种强大的组合如何能够加速创新和商业人工智能服务的普及。Pie
- CogX Festival开幕在即,Graphcore入围CogX Awards两大奖项
喜讯Graphcore(拟未)在CogX Awards 2023评选中入围两大奖项:最佳AI产品类别“下一代基础设施”最佳创新类别“自然语言处理”CogX Awards表彰在过去12个月中影响世界的创新者和变革者。最佳AI产品类别表彰那些将人工智能带入生活的产品和人员,这些产品和人员将彻底改变我们解
- Graphcore加入PyTorch基金会
我们非常高兴地宣布,Graphcore(拟未)已加入PyTorch基金会(PyTorch Foundation),成为其正式会员,以便与深度学习社区建立更紧密的联系,在开源PyTorch框架和生态系统方面开展合作。PyTorch基金会执行董事Ibrahim Haddad表示:“我们很高兴PyTorc
- GACS 2023 | Graphcore现场解读IPU的独特架构如何助力AI大时代
2023全球AI芯片峰会(GACS 2023)将于9月14日-15日在深圳举行,为期两天。此次峰会以「AI 大时代 逐鹿芯世界」为主题,邀请50+位AI芯片领域覆盖产学研用的学术代表、商业领袖、技术专家与资深投资人,共探AI芯片的求新、求变、求索之径。Graphcore中国区产品负责人朱江将参与此次
- 促进低精度数字格式使用,Graphcore发布全新Unit Scaling库
Unit Scaling是一种模型设计方法,能够让FP16和FP8等低精度数字格式更加易用。我们很高兴地宣布,我们发布了一个PyTorch库来促进Unit Scaling的使用。 7月,Graphcore(拟未)在ICML上发表了论文《Unit Scaling:开箱即用的低精度训练》[1]。现在,我
- 情人节之“AI”跨山海——拟未“AI”的故事绘画连载(三)
七夕节“叮”,清晨,唤醒小以的不是闹铃,而是来自未未的信息,未未的头像是上次小以送给她的人像画。未未出差已经几个月了。虽然两人“异地分布”,但“吞吐量”却不小,每天都通过信息联系,主打的就是一个“时延低”。到达办公楼,看着派发玫瑰花的工作人员,以及空气中仿佛具现化的粉红泡泡,小以才恍然发现原来今天是
- 在IPU上使用BART Large进行文本摘要
文本摘要是人工智能自然语言处理 (NLP) 在实际应用中的最佳范例之一。每天都会产生大量的信息,无论是在商业领域还是在科学研究等其他领域,快速理解、评估和处理这些信息的能力都极具价值。摘要是在保留重要信息的同时生成文档的较短版本。从根本上说,它包括从原始输入中提取文本,然后生成描述原始文本要点的新文
- 微调OpenAI的Whisper自动语音识别(ASR)模型
Whisper是由OpenAI创建的开源自动语音识别(ASR)模型,具有极为强大的开箱即用性能。它经过了680,000小时的标注音频数据训练,其中117,000小时的训练涵盖了除英语以外的96种语言,这意味着它可以在各种应用中发挥出色的表现。Whisper的基础版本可在由Graphcore(拟未)
- Graphcore支持Byte MLPerf,为AI生产部署提供性能基准参考
从概念验证和试点项目到规模化生产,Graphcore(拟未)在AI旅程的每个阶段为创新者提供高效AI计算。在AI到现实生活的距离从未如此之近的今天,AI部署吸引了众多目光,AI工作的重心向落地转移。Byte MLPerf(推理)是一个开源的AI加速器基准套件,用于测量推理系统在各种部署场景中运行模型
- 在Graphcore IPU上高效部署Meta开源Llama 2
Llama-2是Meta公司最新推出的开源大型语言模型(LLM),相比Llama早期版本,该升级版具有更好的语言理解和更快的推理速度。由于其性能可与更大型的模型相媲美,而且其宽松开源许可证允许其在商业应用中使用和分发,因此它被誉为大型语言模型采用和商业化的游戏规则改变者。Graphcore拟未在Ll
- Graphcore AI工具生态系统再扩展,UbiOps增加IPU支持
广为使用的人工智能部署和服务平台UbiOps正在增加对Graphcore(拟未) IPU的支持,从而帮助开发人员以更快、更具成本效益的方式运行大型人工智能任务。UbiOps[1]对Gcore云服务[2]上IPU的初期支持使开发人员可以训练和运行人工智能模型,并实施MLOps最佳实践,而无需配置和维护
- 强大高效的LLM:微调Flan-T5 XXL
面对越来越多的大型语言模型(LLM),用户不得不问自己一个重要的问题——哪种模型能在性能和效率之间取得适当的平衡?超大型模型(如ChatGPT)通常较大,因为它们承载了更多的世界知识,并能在自由文本生成方面提供更强的性能。这在人工智能助手或聊天机器人中很有用,但并不能使它们成为每项任务的最高效解决方
- 在IPU上使用Graphium进行多任务分子建模
Graphium是一个高性能深度学习库,专门用于各种化学任务的图表征学习。Graphium集成了最先进的图神经网络(GNN)架构和用户友好的API,可以轻松构建和训练自定义的GNN模型。Graphium的独特特点是其强大的特征提取能力,能够从分子结构中提取全面的特征,适用于各种应用,包括性质预测、虚
- 在IPU上启用Graphium,大规模训练分子GNN
Graphium是一个专为在化学任务上进行图表征学习而设计的开源库。通过可扩展的API,Graphium[1]提供了先进的GNN架构,使研究人员能够轻松构建和训练自己的大规模GNN。从发布开始,Graphium就能够充分利用Graphcore(拟未) IPU独特的架构,该架构已被商业和科学研究机构证
- 2023 WAIC | 趁“热”,回顾“拟”的精彩
2023 WAIC2023世界人工智能大会圆满结束。在这三天里,Graphcore(拟未)展出了入选镇馆之宝的Graphcore® C600 IPU处理器PCIe卡,以及Bow IPU和Bow-2000等展品,并带来了ChatGLM-6B模型、Stable Diffusion模型和图蝇AI三种Dem