Redian新闻
>
ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!

ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!

公众号新闻

老黄的新宣言:决胜 AI 的 iPhone 时刻。

北京时间 3 月 21 日晚间,在英伟达 GTC2023 上,英伟达创始人兼首席执行官黄仁勋穿着他标志性的皮夹克,站在位于英伟达总部的垂直绿墙前,发表了一场主题演讲。

这场发布会几乎完全聚焦于人工智能。

演讲中,黄仁勋介绍了新一轮技术突破,从 AI 训练到模型部署,再到半导体、软件库、系统乃至云服务,分享了英伟达的加速计算平台如何推动人工智能、元宇宙、云技术和可持续计算的下一波浪潮。英伟达持续推进 AI 硬件,并重点关注这些技术在科技、医疗、金融、图像、物流配送等行业的应用场景,让各行各业的企业更容易使用其技术

“我们正处于 AI 的 iPhone 时刻,”黄仁勋表示 “初创公司正在竞相打造颠覆性产品和商业模式,科技巨头也在寻求突破。”

最近站在风口浪尖之上的“顶流” — 生成式人工智能和 ChatGPT 也在本场发布会占了较大篇幅。“推动这波浪潮的引擎是加速计算,燃料则是 AI。生成式 AI 凭借令人印象深刻的能力令众多企业产生了紧迫感,开始重新构思自己的产品和商业模式。”

面对逐渐放缓的摩尔定律以及各行业对于可持续性、生成式 AI 和数字化的旺盛需求,加速计算和 AI 的到来可谓恰逢其时。黄仁勋表示,“工业企业正竞相推动数字化转型,并将自身重塑为软件驱动型科技公司,保证自己成为颠覆的力量、而非被颠覆的对象。”

最近 AIGC 和 ChatGPT 的走后也让英伟达成为背后赢家,大型语言模型需要规模庞大的算力,目前大模型竞赛中的很多玩家都依赖英伟达的 GPU 芯片。据悉,受益于 ChatGPT 相关产品的热度,英伟达 A100、H100 及 A800 系列 GPU 等三款针对数据中心的 GPU 代工订单增加。

投资公司 Baird 认为,ChatGPT 的“有意义的”订单正在到来,并帮助该英伟达上调了下半年数据中心收入预期。Baird 分析师 Tristan Gerra 表示,英伟达的 Hopper 芯片很可能受益于大型语言模型的增长,并成为一种“长期趋势”。

据悉,自今年年初以来,英伟达股价涨幅已超 80%。英伟达 2023 财年第四季度财报显示,AI 数据中心业务再次成为该公司最大的收入来源。

以下为英伟达 GTC 2023 的重要发布概览:

AI 的 iPhone 时刻

英伟达提供的技术可以说是 AI 发展的基础,黄仁勋讲述了显卡巨头如何在生成式 AI 革命之初为其提供助力。早在 2016 年,他就向 OpenAI 交付了第一台英伟达 DGX AI 超级计算机,这也正是支持 ChatGPT 大语言模型实现突破的底层引擎。

去年年底亮相以来,ChatGPT 迅速进入公众视野,吸引到超 1 亿用户,成为历史上增长速度最快的应用程序。黄仁勋感慨,“我们正处于 AI 的 iPhone 时刻 。”

英伟达 DGX 超级计算机最初仅供 AI 研究,但如今已经在世界各地的企业中全天候运行,负责提炼数据和处理 AI。

目前,财富百强企业中有一半都在使用 DGX AI 超级计算机。“DGX 超级计算机已经成为现代 AI 的工厂。”

面向数据中心的英伟达 
H100、Grace Hopper 和 Grace

如今,部署 ChatGPT 这类大语言模型已经成为新的重要推理工作负载。

为了更好地应对这类需求,黄仁勋公布了新的双 GPU NVLink 产品 H100 NVL。

基于英伟达的 Hopper 架构,H100 内置一个 Transformer Engine,能够高效承载 GPT 这类大体量模型。与处理 GPT-3 的 HGX A100 相比,通过双 GPU NVLink 接入四对 H100,从而将速度提升 10 倍

“H100 能够将大语言模型的处理成本降低一个数量级。”

H100

与此同时,过去十年间,云计算年均增长 20% 并发展出价值万亿美元的新产业。英伟达为 AI 和云优先时代设计出 Grace CPU,其中 AI 负载由 GPU 加速。目前 Grace 已经向部分客户提供样片。

NVIDIA Grace 超级芯片

英伟达的新型超级芯片 Grace Hopper 可通过 900 GB/ 秒高速接口将 Grace CPU 与 Hopper GPU 连接起来。Grace Hopper 专为大型数据集而生,特别是用于推荐系统和大语言模型的 AI 数据库。

“客户希望将 AI 数据库再扩大几个数量级,而 Grace Hopper 正是这类用例中的理想引擎。”

DGX — AI 基础设施的蓝图

最新版本的 DGX 采用 8 个相互连通的英伟达 H100 GPU,将其作为巨大的单一 GPU 使用。“英伟达 DGX H100 堪称全球客户构建 AI 基础设施的蓝图”,而且目前这款产品已经全面投产。

H100 AI 超级计算机也已筹备上线。

甲骨文 Oracle Cloud Infrastructure 宣布将先期提供搭载 H100 GPU 的新型 OCI Compute 裸机 GPU 实例。此外,亚马逊云科技也宣布即将为 P5 实例推出 EC2 UltraClusters 选项,最大规模可扩展至 2 万个互连 H100 GPU。上个星期,微软 Azure 也刚刚发布其 H100 虚拟机 ND H100 v5 的内部预览版。

Meta 已经其 AI 生产和研究团队部署了由 H100 驱动的 Grand Teton AI 超级计算机。还有 OpenAI,他们在 Azure 超级计算机上使用 H100 以支持 AI 研究。

其他接纳 H100 的合作伙伴还包括 Cirrascale 和 CoreWeave、Google Cloud、Lambda、Paperspace 以及 Vult。

现在英伟达的客户已经可以从各领先服务器制造商处购买配备有英伟达 H100 GPU 的服务器和系统,包括源讯、思科、戴尔科技、技嘉、HPE、联想和 Supermicro 等。

DGX Cloud:
将 AI 引入每一家企业

为了帮助初创公司和大企业运用 DGX 的强大能力加快新产品开发和 AI 战略的推进,黄仁勋还公布了 NVIDIA DGX Cloud。

通过与微软 Azure、Google Cloud 和 Oracle Cloud Infrastructure 的合作,DGX Cloud 将把 DGX AI 超级计算机“通过浏览器引入每一家企业”。

DGX Cloud 专门针对 NVIDIA AI Enterprise 进行了优化,这是一套全球领先的端到端 AI 开发与部署加速软件套件。“DGX Cloud 将为客户提供最好的英伟达 AI 与领先云服务商的最佳服务。”

英伟达将与领先云服务商合作托管 DGX 云基础设施,第一步就是携手 Oracle Cloud Infrastructure。微软 Azure 预计将从下季度起托管 DGX Cloud,该服务也将很快扩展至 Google Cloud。

企业客户可以按月租用 DGC Cloud 集群,借此轻松实现大规模多节点训练负载的开发。

为生成式 AI 提供“增压加速”

为了帮助生成式 AI 开发者加快探索的脚步,黄仁勋又公布了 NVIDIA AI Foundations。这个云服务系列主要面向希望构建、改进和操作定制化大语言模型的客户,能够利用专有数据训练出适应特定领域任务的生成式 AI 成果。

Nvidia AI Foundations 是针对语言、视觉模型和生物学的云服务

AI Foundations 服务包含用于构建定制化语言文本到文本生成模型的 NVIDIA NeMo;可利用许可或专有内容训练自定义模型的视觉语言模型服务 Picasso;以及服务于总值达 2 万亿美元的药物发现行业研究人员的 BioNeMo。

Adobe 也在与英伟达合作,共同为未来的创造性工作构建下一代 AI 功能。Getty Images 则与英伟达合作训练负责任的文本到图像与文本到视频生成式基础模型。Shutterstock 与英伟达合作训练文本到 3D 生成式基础模型,希望简化 3D 资产的创建流程。

加速医学进步

英伟达宣布 Amgen 正通过 BioNeMo 加速药物发现。此外,Alchemab Therapeutics、阿斯利康、Evozyne、Innophore 和 Insilico 也都是 BioNemo 的早期用户。

BioNeMo 能够帮助研究人员利用专有数据创建、微调和交付定制化模型。

黄仁勋还宣布,英伟达已经与全球最大医疗保健技术提供商美敦力建立合作,共同构建用于软件定义医疗设备的 AI 平台。双方将合作为美敦力系统构建通用平台,将手术指引、机器人辅助手术等各类成果纳入其中。

美敦力此次也公布了利用 NVIDIA Holoscan 软件库打造的实时传感器处理系统 GI Genius,能够利用 AI 技术实现结肠癌的早期检测,计划于今年年底左右正式上线。

黄仁勋总结道,“市值 2500 亿美元的全球医疗器械市场,正经历一场根本性变革。”

为生成式 AI 应用的部署加速

为了帮助企业快速部署生成式 AI 艺术形式,黄仁勋公布了用于 AI 视频、图像生成、大语言模型部署和推荐的推理平台。

这些功能将与英伟达的全栈推理软和最新的英伟达 Ada、Hopper 及 Grace Hopper 处理器相结合,包括此次推出的英伟达 L4 Tensor Core GPU 及 H100 NVL GPU。

• 英伟达 L4 for AI Video 可将 AI 视频处理性能提升至 CPU 的 120 倍,能效优化达 99%。

• 英伟达 L40 for Image Generation 针对图形生成和 AI 支持的 2D、视频及 3D 图像生成进行了优化。

• 英伟达 H100 NVL for Large Language Model Deployment 可高效部署 ChatGPT 等大语言模型。

• 英伟达 Grace Hopper for Recommendation Models 适用于图推荐模型、矢量数据库和图神经网络等用例。

Google Cloud 是首家向客户交付 L4 的云服务商,此次发布了新的 G2 虚拟机内部预览版。谷歌还计划将 L4 集成至 Vertex AI 模型商店当中。

把 Omniverse 带向“数亿用户”

黄仁勋宣布英伟达将与微软合作,将 NVIDIA Omniverse Cloud 全托管云服务推向各个行业,为每一家企业赋予前所未有的模拟和协作能力。

“微软和英伟达将把 Omniverse 带向数亿 Microsoft 365 与 Azure 用户。”同时推出的还有新的 NVIDIA OVX 服务器和新一代工作站,其中搭载 NVIDIA RTX Ada Generation GPU 和英特尔针对 NVIDIA Omniverse 优化的最新 CPU。

黄仁勋还播放了一段视频,展示了英伟达为 3D 设计协作与数字孪生模型构建的这套 Omniverse 开放平台。在 Omniverse 平台之上打造的机器人模拟与合成生成方案 NVIDIA Isaac Sim,已经成功帮助亚马逊建立起高保真度数字孪生副本,同时显著节约了时间和资金。

在演示中,亚马逊借此开发出首款全自动库管机器人 Proteus,它能与人类员工一道在巨大的配货仓库中将商品搬来挪去。

推动 3 万亿美元的
汽车产业实现数字化

为了表达 Omniverse 的影响力和强大实力,黄仁勋还介绍了 Omniverse 在价值 3 万亿美元的汽车产业中发挥的数字化推动作用。到 2030 年,汽车制造商将建设 300 家工厂、生产 2 亿辆电动汽车,电池制造商则着手兴建 100 多处超级工厂。“数字化将提高行业的整体效率、生产力和行动速度。”

谈到 Omniverse 在整个行业的未来应用,黄仁勋分享了 Lotus 利用 Omniverse 建立虚拟组装焊接站,奔驰利用 Omniverse 来构建、优化和规划新车型的装配线。Rimac and Lucid Motors 则使用 Omniverse 开发出能忠实反映车辆设计参数的数字商店。

宝马与 Idelworks 合作,在 Omniverse 中利用 Issac Sim 生成合成数据与场景,借此训练工厂内的工程机器人。黄仁勋表示,宝马正使用 Omniverse 规划全球工厂运营,甚至在一家新电动车工厂开业两年前就完全在 Omniverse 中建立了孪生模型。

另外,英伟达还宣布与全球领先的新能源汽车制造商比亚迪合作,在生产体系中广泛引入 NVIDIA DRIVE Orin 集中式计算平台。

加速半导体突破

面对当前生产工艺已接近物理极限的事实,黄仁勋公布了 NVIDIA cuLitho 计算光刻库,将帮助阿斯麦尔、台积电和新思科技等半导体领先企业加速新一代芯片的设计和制造。这套全新软件库已经被全球芯片代工巨头台积电和电子设计自动化领军企业新思科技集成至其最新一代 NVIDIA Hopper 架构的 GPU 软件、制造流程和系统当中。

芯片制造商阿斯麦尔与英伟达就 GPU 和 cuLitho 库开展密切合作,计划在所有计算光刻软件产品中支持 GPU 集成。黄仁勋谈到,随着光刻技术逼近物理极限,英伟达推出的 cuLitho 有望帮助半导体行业迈向 2 纳米甚至更远的新节点。

“芯片行业,是几乎一切其他行业的基础。”

参考链接:

https://blogs.nvidia.com/blog/2023/03/21/gtc-keynote-spring-2023/

https://register.nvidia.cn/flow/nvidia/gtcspring2023/registrationcn/page/sessioncatalog/session/1673303350236001hW73


今日荐文


GPT-4"失控"行为大赏:创建行动计划欲接管推特并取代马斯克,还引诱教授帮其制定逃跑计划


李开复下场抢人!宣布筹办新AI公司:目标不只是中文ChatGPT,资金算力已到位


TikTok或考虑从字节跳动剥离;苹果推迟发放员工奖金;AI大牛颜水成加入智源研究院| AI一周资讯


微软抛出王炸,GPT-4接入Office全家桶!PPT一键生成,又一批打工人要下岗了?

Meta再裁10000人!先裁技术岗,对华人员工影响大,扎克伯格写“小作文”拿扁平化当裁员借口

马斯克开会当场解雇Twitter首席工程师:我有1亿多粉丝,他却说公众对我失去兴趣

你也「在看」吗? 👇

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
赚翻!加拿大男子一个小玩偶卖出$7200高价!10年间翻了近20倍...修改几行代码就让 LLM 应用提速 100 多倍!这个团队两周搭建 ChatGPT 缓存层,曾被老黄 OpenAI 点赞微软“核弹级”更新:ChatGPT亮相Bing搜索和浏览器,今天上线,免费使用GPT-4偷袭发布!ChatGPT能识图和逻辑推理,靠自己考上斯坦福【附发布会中英文字幕版】修改几行代码就让LLM应用提速100多倍!这个团队两周搭建ChatGPT缓存层,曾被老黄OpenAI点赞ChatGPT带火,这一概念再迎风口!ChatGPT平替「小羊驼」Mac可跑!2行代码单GPU,UC伯克利再发70亿参数开源模型ChatGPT横空出世,AI“翻译官”要突破英伟达CUDA生态,让AI芯片更聪明ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇Tableau掀起“ChatGPT”转型,掌握这项技能的加国留学生赚翻了!老黄手捧ChatGPT专用「核弹」炸场,英伟达H100至尊版速度提10倍!英伟达将芯片计算光刻提速40倍,2纳米提前到来?280倍!这只超级独角兽的早期投资人赚翻了苹果今晨推送新系统/ChatGPT出现泄露聊天记录的风险/英伟达ChatGPT同款超算上云老黄手捧ChatGPT专用“核弹”炸场,英伟达H100至尊版速度提10倍!匹兹堡记事 - 2022.12.26 陕西面馆辞旧迎新,卯年吉祥英伟达秘密研发四年、向芯片制造业甩出一枚技术“核弹”谷歌Bard遭自家员工差评/ 英伟达发布视频生成模型/ 波士顿动力机器狗整活…今日更多新鲜事在此“比妖股还妖”!4天2板,3000亿巨头暴拉涨停!英伟达放大招,提速10倍,人工智能板块沸腾了!189/190/491最新审理提速,全力清库存!澳洲高校药学专业很吃香。All in AI!英伟达发布核弹级GPU,AI专用下载量暴增10倍!微软必应集成ChatGPT后需求大爆发;4省份上调最低工资标准;淘宝已屏蔽ChatGPT关键词丨邦早报赚翻!加拿大男子凭这个小玩偶卖出$7200高价!10年间翻了近20倍...ChatGPT带飞英伟达股价/ 爱奇艺首次实现全年盈利/ AI作图被判无版权…今日更多新鲜事在此“这是AI的iPhone时刻”,芯片巨头发布ChatGPT专用GPU:速度快十倍!未来将与中国云服务商合作回忆往年过春节品尝玫瑰的浪漫微软宣布开源DeepSpeed-Chat ,训练提速15倍以上,有望实现人手一个ChatGPT?英伟达发布ChatGPT专用GPU,计算光刻提速40倍!AI的决定性时刻来了2023 除夕夜,简单的年夜饭和这两天吃喝英伟达台积电密谋的“新核弹”,计算光刻如何改变2nm芯片制造?硬与软:ChatGPT带给中国科技行业的启示英伟达发布ChatGPT专用GPU,性能提升10倍,还推出云服务,普通企业也能训练LLMAIGC疯狂一夜!英伟达投下“核弹”、Google版ChatGPT开放,盖茨都震惊了
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。