作者:腾讯科技
① 黄仁勋表示,加速计算和人工智能重塑了计算机行业,CPU扩张的时代已经结束了。当下需持续提升运算能力的数据中心需要的CPU越来越少,需要的GPU越来越多。人类已经到达了生成式AI的引爆点。
② 黄仁勋认为,人工智能意味着每个人现在都可以成为计算机程序员,因为人们所需要做的就是与计算机对话,他为“数字鸿沟”的终结而欢呼。③ 黄仁勋强调,企业和个人应该了解人工智能新浪潮,并迅速推动新技术的创新,否则将会被淘汰。同时,人工智能也将成为辅助工具,提高工人的生产力和效率,并创造新工作岗位,而一些传统工作岗位则会消失。
④ 黄仁勋透露,世界上首款拥有巨大内存的加速计算处理器GH200 Grace Hopper现已全面投产,微软、Meta以及谷歌云预计将成为该超级计算机的首批用户。
⑤ 此外,黄仁勋还将英伟达2019年以69亿美元收购超级计算机芯片制造商Mellanox称为其有史以来做出的“最伟大的战略决策之一。
北京时间5月30日,周二美股盘前英伟达股价涨幅扩大至近4%,股价突破404美元/股,总市值突破万亿美元。英伟达也成为全球首家市值破万亿美元的芯片公司。作为英伟达“掌门人”的黄仁勋,日前在Computex 2023上发表主题演讲,分享了他们在 AI、图形及其他领域的最新进展。在黄仁勋近两个小时的演讲中,他为用户带来了一系列重磅产品和消息,其中包括向游戏开发商提供的AI模型代工服务、算力大幅提升的DGX GH200人工智能超级计算机以及与其他头部科技公司的合作进展。黄仁勋向人们更具体地描绘了AI赋能的未来。大家好,我又回来了!这是我近四年来首次举行面对面现场活动。我已经四年没有发表公开演讲了,我有很多东西要告诉你们,但时间却如此有限。所以,让我们赶紧开始吧!光线追踪、模拟光和材料的特性是加速计算面临的终极挑战。六年前,我们第一次展示了终极加速计算挑战,在不到几个小时的时间里呈现了这个场景。经过十年的研究,我们利用GPU能够在15秒内将这个场景渲染出来。六年前,我们发明了英伟达RTX,并结合了三项基本技术——硬件加速光线追踪、在英伟达张量核心GPU上运行人工智能以及全新的算法。下面让我们看看,它们在推出短短五年后有了哪些不同。这是在Kuda GPU上处理的图像。六年前,渲染这张漂亮的图片要花费几个小时。所以,在加速计算本就快速进步的同时,这是一个巨大的突破。然后,我们发明了RTX GPU。计算机图形光线追踪的“圣杯”现在可以实时实现了。这是我们在RTX中采用的技术,五年后的今天对我们来说是非常重要的时刻,因为我们第一次采用了第三代Ada架构RTX GPU,并通过两款新产品将其带到了主流中。现在,这两款产品已经完全投产。无论内外,这一切看起来都已经有了很大不同。这是我们的全新产品,你在我左手看到的这台设备正以每秒60帧的速度运行支持光线追踪和人工智能的Kuda GPU,它的屏幕大约14英寸,几乎感受不到重量,它比最高端的PlayStation游戏机更强大。我右手上是我们核心游戏玩家的最爱RTX 4060Ti。现在,这两款产品都已经投产,我们的合作伙伴正在大量生产它们。我真的很兴奋,非常感谢!我几乎可以把它放进我的口袋里。人工智能可以帮助我们做很多事情,而此前这些事情被认为是绝对不可能做到的。以渲染像素为例,我们以前渲染像素时无法预测其他像素。而现在,我们可以使用人工智能来预测每个像素的另外七个像素,其性能高得令人难以置信。现在,我向你们展示这两款GPU的性能,但如果不是英伟达的超级计算机始终在运行着帮助训练模型,以便我们可以增强应用程序,这是不可能实现的。所以未来就是我刚才向你们展示的,你们可以推断出我在剩下的演讲中要谈到的所有事情几乎可以归结为一个简单的想法,那就是将会有一台大型计算机编写软件,开发和部署软件,这是令人难以置信的,它可以部署在世界各地的设备上。我们可以使用人工智能来渲染场景,还能利用使用人工智能来使其变得生动起来。今天我们宣布推出NVIDIA ACE Avatar云引擎,它是为动画设计的,旨在使数字阿凡达变得栩栩如生。它具有几个特征,或说几种能力,语音识别、文本转语音、基于大语言模型获得的自然语言理解,使用你的声音来生成声音让你的脸做出不同表情,使用你的声音和表情让手做出相应动作。所有这一切都是完全由人工智能训练的。我们有一项服务,其中包括预先训练好的模型,开发者可以根据自己的故事来修改和增强应用,因为每款游戏都有不同的故事,然后你可以将其部署到云端或自己的设备上。我们有很棒的后端,有张量RT,RT是一个视频深度学习优化编译器,你可以将它部署在英伟达的图形处理器上,以Onyx和工业标准输出,这样你就可以在任何设备上运行它。只要一秒钟就可以看到这个场景,但让我首先给你讲讲。这完全是用光线追踪渲染的,注意那些漂亮的灯光,有这么多不同的光线,所有不同的光线都是从相同光源投射出来的。所以你可以有各种直射光线,有全局照明,你会看到难以置信的美丽阴影和物理模拟,注意到角色的渲染,这一切都是在虚幻引擎5中完成的。我们与一个名为Cum AI的虚拟人物框架和虚拟人物工具制造商合作,共同开发了这段视频游戏演示。这一切都是实时的,对话如下:玩家:嘿,Jen,你好吗?
Jen:不幸的是,不太好。我很担心这里的犯罪,最近情况越来越糟。我的店在交火中被毁了。
玩家:我能帮忙吗?
Jen:如果你想做点什么,我听到传言说犯罪头子Kuman正在城市里制造各种混乱,他可能是暴力的根源。
玩家:我会去和他谈谈的。我在哪里可以找到他?
Jen:我听说他常出没于城东的地下搏击俱乐部。试试去那里。
玩家:我会去的!
这些对话都不是事先写好的脚本。我们给人工智能这个角色相关背景故事,包括其小店的故事和这个游戏的故事,你所要做的就是和这个角色交谈,因为这个角色已经被集成了人工智能和大型语言模型,它可以与你互动,理解你的意思。最关键的是,这些互动都以一种非常合理的方式进行。所有的面部动画都是由人工智能完成的,我们让各种各样的角色都可以生成。它们都是不同的域,有各自领域的知识。你可以自定义它,所以每个人的游戏都是不同的,看看它们多么漂亮而自然。这是电子游戏的未来,人工智能不仅有助于渲染和环境的合成,还将为这些角色制作动画。人工智能将是未来电子游戏的重要组成部分。我们这一代最重要的计算机无疑是IBM 360系统。这台计算机彻底改变了很多东西:它是历史上第一台引入中央处理器概念的计算机、虚拟内存、可扩展IO,多任务处理,以及在不同计算范围内扩展这台计算机的能力。其中最重要的贡献和最深刻的见解之一就是保护软件投资的重要性。这个软件可以在所有的计算机上运行,并跨越了好几代计算机。IBM认识到软件的重要性,认识到保护投资的重要性,而且非常重要的是,认识到安装基础的重要性。这台计算机不仅革新了计算,而且我们中的许多人都是阅读这台计算机的使用手册长大的,以了解计算机架构是如何工作的,甚至是第一次了解DMA(编者注:DMA,即Direct Memory Access,直接存储器存取,为计算机组成原理)。这台计算机不仅彻底改变了计算,还彻底改变了计算机行业的思想。IBM 360系统及其编程模型在很大程度上一直保留到今天。60年来,全球价值1万亿美元的数据中心基本上都在使用60年前发明的计算模式。今天的计算机行业正在发生两个根本性的转变。你们所有人都身在其中,也都能感受到它们。有几个基本趋势。第一个趋势是CPU的扩张时代已经结束,每五年以同样成本获得十倍性能的提升也已经结束,这是当今计算机如此之快的主要原因。在不增加功率的情况下,每五年维持十倍的计算能力提升,是世界数据中心在地球上消耗的电力没有那么多的原因。这种趋势已经结束,我们需要一种新的计算方法,加速计算就是前进的方向。它恰好发生在一种新的软件开发方式被发现的时候——深度学习,这两件事结合在一起,推动着今天的计算向前快速发展。加速计算和生成式人工智能这些开发软件的方式,是一种从头开始的重新发明。这并不容易。加速计算是一个全栈问题,它不像通用计算那么容易,CPU是一个奇迹,高级编程语言,伟大的编译器。几乎任何人都能写出相当好的程序,因为CPU是如此的灵活。然而,它的持续扩展能力和性能提升已经结束,我们需要一种新的方法。加速计算是个全栈问题,你必须从上到下和从下到上重新设计一切,包括芯片、系统、系统软件、新的算法和优化以及新的应用等。第二个趋势与数据中心的规模有关。数据中心规模成为问题的原因在于,今天的数据中心就是计算机。与过去你的个人电脑是一台电脑或电话是一台电脑不同,今天你的数据中心就是一台电脑,应用跨整个数据中心运行。因此,你必须了解如何优化芯片以跨节点计算软件,以分布式计算方式切换到另一端,这一点至关重要。
加速计算的第三个趋势是多领域的,也处于特定领域。你为计算生物学创建的软件栈中的算法和你为计算流体动力学创建的软件栈是完全不同的。这些科学领域都需要各自的堆栈,这就是为什么加速计算花了我们近三十年的时间才完成的原因。整个堆栈花了我们近30年的时间。然而,其表现是令人难以置信的,我会展示给你看。30年后,我们现在意识到,我们正处于一个转折点,一种新的计算模式是极其难以实现的。因为要想开发出新的计算模式,你需要开发人员。然而,开发人员加入前,必须有人创建最终用户会购买的应用。没有最终用户,就没有客户,就没有计算机公司生产计算机。计算机公司不生产计算机,就没有安装基础,没有安装基础就吸引不了开发人员,最终也就没有可用应用。在我从事这个行业的40年里,很多计算机公司都经历过这种循环。这确实是历史上的第一个重大时期,一种新的计算模型已经被开发和创建。我们现在有400万开发者,3000多款应用,CUDA软件下载量达到4000万次,仅去年就有2500万次。世界上有15000家创业公司建立在英伟达的技术基础上,有40000家大公司正在使用加速计算。我们现在到达了一个新计算时代的临界点,这种新的计算模式现在受到世界上每一家计算机公司和每一家云计算公司的欢迎。这是有原因的。事实证明,归根结底,每一种计算方法最终带来的好处都是降低成本。80年代是个人电脑革命的十年,个人电脑将计算的价格降到了前所未有的水平。然后移动设备很方便,也节省了大量的钱。我们把相机、音乐播放器、手机以及其他许多不同的东西都整合在一起。最终,你不仅能够更好地享受自己的生活,也节省了很多钱,并获得了极大的便利。每一代人都提供了新的东西,并节省了资金。这就是加速计算背后的初衷。这是用于大语言模型的加速计算,大型语言模型基本上就是生成式人工智能的核心。这是非常耗钱的项目,我们需要承担所有成本,包括开发芯片、部署网络等成本。1000万美元可以买到近1000台CPU服务器,训练大语言模型的过程需要11千兆瓦小时的电量。这就是当你用加速计算加速工作负载时所发生的事情,用1000万美元买服务器,这就是为什么人们说GPU服务器很贵的原因。然而,GPU服务器不再是计算机,而计算机是数据中心。你的目标是构建最具成本效益的数据中心,而不是构建最具成本效益的服务器。在过去,计算机是服务器,这是一件合理的事情。但是今天,计算机是数据中心。你想做的是,你想用最好的TCO创建最有效的数据中心,花1000万美元买48台GPU服务器。它只消耗3.2千兆瓦时的电量,而性能却是前者的44倍。我们想要所谓的密集型计算机,而不是大型计算机。让我给你看看别的东西。这是1000万美元,960个CPU服务器。这次我们要做的是保持功率不变,这意味着你的数据中心电力供应是有限的。事实上,今天大多数数据中心的电力供应有限,在这种情况下,使用加速计算,你可以以3倍的成本获得150倍的性能。加速计算为什么这么有用?这样做的原因是因为,寻找另一个数据中心非常昂贵且耗时。如今,几乎每个数据中心的电力供应都是有限的,而几乎所有人都在争先恐后地开辟新的领域,以获得更多的数据中心。因此,如果你的电力供应受限,或者你的客户电力供应有限,那么他们可以做的就是在当前的数据中心上投入更多资金。这样,你可以获得更多的吞吐量,继续推动公司增长。我们再看一个例子:如果你的目标是完成工作,而你不会在乎怎么去做。那么你不需要了解策略,不需要了解技术,只需要记住:买的越多,省的越多。这就是英伟达能提供的。再回到数据中心。在过去这么多年,你们每次见到我,我几乎都在谈论加速计算。过去20年始终如一,这是为何?为什么说现在迎来了临界点?因为数据中心的方程式非常复杂,与数据中心的成本有关。数据中心TCO是一个函数,这是每个人经常搞砸的部分。这是芯片的函数,也是系统的函数,但这也是因为有很多不同的用例。这是一个可以创建系统多样性的函数。为什么会有这么多不同配置的电脑?大型机、小型机、廉价计算机、超大规模计算机以及超级计算机等,而它们都完全兼容。我们的硬件生态系统能够创造出这么多不同版本的软件兼容,真是不可思议。计算机的吞吐量非常重要。这取决于芯片,但这也取决于算法,因为没有算法库,加速计算什么也做不了。它就在那里,你需要算法运行它。这是一个数据中心的大问题。网络问题和网络问题分布式计算都是关于软件的。再说一次,系统软件很重要。不久之后,为了向客户展示你的系统,你最终必须有很多应用程序在上面运行,软件生态系统很重要。数据中心的利用率是其TCO最重要的标准之一,就像酒店一样。如果酒店很棒,但大部分时间都是空的,那么运营成本会非常高。所以需要很高的利用率。为了提高利用率,你必须有很多不同的应用程序。应用程序的丰富性、库中的算法以及现在的软件生态系统都很重要。假设你买了一台电脑,但是从你购买的那一刻到你让电脑开始工作赚钱是截然不同的,这个时间差可能会持续几周。我们可以在几周内建成一台超级计算机,因为我们在世界各地建造了很多超级计算机。如果你做得不太好,你可能要花一年的时间来弥补这个差距,让你失去赚钱的机会,承担高昂的成本,确保生命周期优化,因为数据中心是软件定义的。有很多工程师将继续改进和优化软件堆栈,因为视频软件堆栈在架构上是兼容的,跨越我们所有的世代,跨越我们所有的GPU。每次我们对某个方面进行优化,都会让所有产品受益。所以生命周期优化,以及你使用的电量都非常重要。这个方程非常复杂,但我们现在已经解决了很多不同领域、行业和数据处理、深度学习以及经典机器学习方面的问题,我们部署软件的方式有很多,从云到企业超级计算再到边缘计算。我们也有很多不同的GPU配置,从HGX到全能宇宙(Omniverse)、从云GPU到图形版本等。现在的利用率很高。NBA GPU的利用率非常高,几乎每一个云都是过度扩展的,几乎每一个数据中心都是过度扩展的。有很多不同的应用在使用它。所以我们现在已经到了加速计算的临界点,也到了生成式人工智能的临界点,我要感谢你们所有人的支持、帮助和合作,让这个梦想成为现实。每次发布新产品,我们的需求都在增加,Kepler、Volta、Pascal 以及Ampere都是如此。而现在这一代加速计算的需求实际上来自世界的每个角落。我们很高兴能全面量产H100。它由多家供应商共同打造,被应用于云中、企业中。令人难以置信的是,这块系统板有35000个组件,8个Hopper架构GPU。它的重量超过27公斤,需要机器人帮忙抬起并集成。这款产品价值20万美元,它取代了整个房间的其他电脑。我知道它很贵,它可能是世界上最昂贵的系统板,但你买得越多就省得越多。这是计算托盘的样子,这是全新的H100,是世界上第一款带有变压器引擎的计算机。性能简直令人难以置信。12年来,我们始终在推动这种新型计算方式的发展。当我们第一次见到深度学习的研究人员时,我们很幸运地意识到,深度学习不仅会成为许多应用程序的神奇算法,最初是计算机视觉和语音,而且它还会成为一种全新的软件开发方式,这种方式可以使用数据来开发训练具有不可思议维度的通用函数近似器。它基本上可以预测任何你有数据的东西。我们意识到,只要数据具有可以从中学习的结构,这种开发软件的新方法就非常重要,并且它具有完全重塑计算的潜力。我们押对了赌注。12年后,我们重新发明了所有自己曾经发明的东西。我们从创建一种新型库开始,它本质上就像一个续集,除了神经网络处理的深度学习,它就像渲染引擎,一个用于神经网络处理的解算器。我们重新发明了GPU,人们以为GPU还是原来的GPU,但他们完全错了。我们致力于重新设计GPU,使其变得非常出色。在张量处理方面,我们创造了名为SXM的新型封装,并与台积电合作,将多个芯片堆叠起来,这样我们就可以将这些SXM模块以高速芯片对芯片的方式互相连接在起来。大约在十年前,我们制造了世界上首个芯片对芯片模块,这样我们就可以扩展内存。我们创造了一种名为HGX的新型主板。以前从来没有电脑这么笨重,也没有电脑消耗这么多电量。数据中心的每个方面都必须重新设计。我们还发明了一种新型的计算机设备,这样我们就可以在上面开发软件。有一种简单的设备,我们称之为DGX,基本上就是巨大的GPU计算机。我们还收购了超级计算机芯片制造商Mellanox(编者注:英伟达于2019年3月11日宣布以69亿美元价格收购总部位于以色列的Mellanox),这是我们公司最伟大的战略决策之一。因为我们意识到,在未来,如果数据中心是计算机,那么网络就是神经系统。如果数据中心配置为计算机,那么网络就定义了数据中心。这是一次非常好的收购。从那以后,我们一起做了很多事情,今天我将向你们展示一些非常棒的作品。那么,如果一个操作系统有神经系统,比如一个分布式计算机,它需要有自己的操作系统。我们称为Magnum IO。我们有些最重要的工作要做,所有的算法和引擎都在这些计算机上,我们称之为英伟达人工智能。这是世界上唯一一个将数据处理从数据处理到训练、优化、部署、推理、端到端深度学习处理的人工智能操作系统。它是今天人工智能的引擎。从Kepler开始的每一代产品,每两年我们都有一个巨大的飞跃,但我们意识到我们需要更多的东西,这就是为什么我们把GPU相连构建更大GPU的原因,我们用无限的带宽把这些GPU连接在一起,形成更大规模的计算机,使我们能够驱动处理器并扩展计算的规模。对于人工智能研究机构来说,社区以惊人的速度推进人工智能发展。每隔两年,我们就会有巨大的飞跃,我期待下一次飞跃也足够大。这就是新的计算机行业,软件不再仅仅由计算机工程师编写,而是由计算机工程师与人工智能共同合作编写。超级计算机将成为新的工厂。汽车工业有工厂是非常合乎逻辑的,他们生产你可以看到的汽车。计算机行业有计算机工厂也很合理,你可以看到它们建造的电脑。将来,每家大公司都将拥有自己的人工智能工厂,用于构建和生产自家公司的智能。这是一件非常明智的事情。我们培养自己的员工,并不断创造条件,使他们能够最好地工作。我们将成为智能的生产者,人工智能的生产者,每个公司都将拥有工厂,工厂将以这种方式建造。这将转化为你的吞吐量,这转化为你的规模,你将以一种非常非常好的方式构建它,因为我们致力于追求这条道路,并在10年内不懈地提高性能。我们增加吞吐量,我们增加规模,所有堆栈的总体吞吐量在10年内增加100万倍。刚开始时,我给你们展示了5年内的计算机图形发展速度,我们在5年内用人工智能和加速计算将计算机图形性能提高了1000倍。现在的问题是,当你的电脑快了100万倍,你能做什么?原来我们在多伦多大学认识的朋友,亚历克斯·克里斯(Alex Chris)和伊尔亚·苏茨克维(Ilya Sutskever)以及杰夫·辛顿(Jeff Hinton)。苏茨克维是OpenAI的联合创始人,他发现人工智能在深度学习网络中的持续扩展,并提出了ChatGPT。在这种通用形式下,正是转换器引擎和使用无监督学习的能力,能够从大量数据中学习并识别大序列中的模式和关系,并使用转换器来预测下一个单词,大语言模型由此被创建出来。这种突破是非常明显的,我相信在座的每个人都已经尝试过ChapGPT,但重要的是,我们现在有一个软件能力来学习几乎任何信息的结构。我们可以学习文本、声音、图像的结构,学习所有人的身体结构,比如蛋白质、DNA、化学物质。我们可以学习语言的,比如英语、汉语、日语等等,但你也可以学习许多其他语言。下一个突破是生成式人工智能。一旦你学会了语言,特别是学会了特定信息的语言,然后通过我们称之为提示的其他信息源的指导,就可以引导人工智能生成各种信息。我们可以生成文本、图像。但重要的是,这个信息转换成其他信息是可能的。文本到蛋白质,文本到化学物质,图像到三维图像到二维图像到文字说明。视频到视频,许多不同类型的信息现在可以转换。有史以来第一次,我们有了一种软件技术,能够理解多种形式的信息表达。我们现在可以应用计算机科学,可以应用我们行业的工具,可以把我们这个行业的工具应用到许多不同的领域,这在以前是不可想象的。这就是大家感到如此兴奋的原因。现在让我们来看看其中的一些例子,让我们看看它能做什么。首先,这里有有个提示符,这个提示符是“Hi,Computex”。我在这里输入文字:“我来这里是告诉你臭豆腐有多好吃!你可以在这里享受它,夜市最好。那天晚上我就在那里。”我唯一输入的就是文字,而输出的就是视频。接下来,让我们尝试下文本转音乐功能。只需要简单地给出音乐风格提示和歌词,人工智能就可以自动生成。我输入的文字是:“I am here at computex, I will make you like me best. Sing sing it with me, I really like Nvidia!" 你们能做到吗?反正我做不到。有了这样的表现,下次我要雇用人工智能了。所以,很明显,这是一个非常重要的新能力。这就是为什么有这么多生成式人工智能创业公司涌现的原因。我们正在与大约1600家生成式人工智能初创公司合作,它们存在于各个领域,语言领域、媒体领域以及生物学领域等。我们关心的最重要的领域之一是数字生物学领域,它将经历一场革命。这将是一件令人难以置信的事情,它们可以帮助我们创造工具,这样我们就可以构建出色的芯片和系统。我们将第一次拥有计算机辅助药物发现工具,它们将能够操纵和处理蛋白质和化学物质,了解疾病目标,并尝试各种以前从未想到过的化学物质。这是一个非常重要的领域,有很多创业公司、工具和平台公司。让我给你们看一段他们正在做的工作视频。难以置信,对吧?简直不可思议。毫无疑问,我们正处于一个新的计算时代。每一个计算时代都可以让你做很多以前不可能做到的事情。人工智能当然符合这个条件。在这个特定的计算时代,有几个方面是特殊的。首先,它能够理解的信息不仅仅是文本数字,还可以理解多模态,这就是为什么这场计算革命可以影响每个行业的原因。其次,因为这台计算机不在乎你如何编程。它会试着理解你的意思,因为它有非常强大的语言模型能力,编程障碍非常低。我们缩小了数字鸿沟,每个人都是程序员。现在,你只需要对电脑说点什么。第三,这台电脑不仅能够为未来做些惊人的事情,它还可以支持上一个计算时代的每款应用做惊人的事情,这就是为什么所有这些API都被连接到Windows应用程序、浏览器、Powerpoint和Word上。每个现存的应用程序都会因为人工智能而变得更好。你不必只对新兴应用集成人工智能功能,这个计算时代不需要新的应用程序。它可以在所有应用程序中成功,它将会有新的应用。因为它很容易使用,所以它的发展速度如此之快,这将触及每一个行业的核心,因为每一个计算时代,它都需要一种新的计算方法。在这个特殊的时代,计算方法是加速计算,它已经被彻底改造了。在过去的几年里,我一直在和你们谈论我们正在开发的新型处理器。这就是我们创造它的原因。Grace Hopper已经全面投产,这台电脑里有近2000亿个晶体管。这款处理器真的很神奇。它有几个独特之处:这是世界上第一个加速计算处理器,也有巨大的内存。它有将近600 GB的内存,介于CPU和GPU之间。所以GPU可以引用内存,CPU可以引用内存,并且可以避免任何不必要的来回复制。惊人的高速内存让GPU可以处理非常大的数据集。这是一台电脑,而不是芯片,它使用低功耗DDR内存,就像你的手机那样,只不过这是经过优化设计的,适用于高弹性数据中心应用,性能惊人。这花了我们好几年的时间研发,我对它感到非常兴奋,我将向你们展示我们将用它做的事情。四个转换器引擎、72个CPU通过高速芯片到芯片的链路连接起来,每秒可达900千兆字节。本地内存,96GB的HBM 3内存通过1PDDR内存在一个非常大的高速缓存上进行扩展。所以这台电脑是世界上从未见过的。现在让我给你们做些演示。我在这里比较三种不同的应用。这是一个非常重要的应用。如果你从来没有听说过它,一定要去查查。它被称为矢量数据库,即经过标注的数据库,并已经将数据矢量化。因此,它了解其存储中所有数据的关系。这对于大语言模型的知识扩充以及避免产生幻觉极其重要。第二种应用是深度学习推荐系统。这就是我们获得新闻、音乐和你在设备上所看到所有文本的方式。当然,推荐音乐、商品和各种东西。推荐系统是数字经济的引擎。这可能是世界上任何一家公司运行的最有价值的软件,堪称世界上第一个人工智能工厂。未来还会有其他人工智能工厂,但这真的是第一家。第三种应用是大语言模型推理。650亿参数已经是相当大的语言模型,这在CPU上根本不可能实现。使用x86架构的Hopper,速度会更快,但请注意它的内存有限。当然,你可以将400 GB的数据分割,然后分布在更多的GPU上。但在Grace Hopper的情况下,其内存比所有这些模块都大。明白了吗?因此,你不必将数据分成这么多块。当然,这种方法的计算量更高,但使用起来要容易得多。如果你想要扩展大语言模型、矢量数据库或深度学习推荐系统,这是很容易使用的方法。这太好用了,将其插入数据中心即可。这就是我们建造Grace Hopper的原因。另一个让我超级兴奋的应用是我们公司的基础。英伟达是Cadence的大客户,我们使用他们所有的工具,而他们的所有工具都在CPU上运行。它们之所以在CPU上运行,是因为英伟达的数据集非常大。而且,这些算法会在很长一段时间内得到改进。因此,大多数算法都以CPU为中心。我们用Cadence加速其中某些算法已经有一段时间了,但现在有了Grace Hopper,我们只花了几天和几周的时间来研究它,性能已经加快了,我迫不及待地想向你们展示它,这太疯狂了!这将给整个行业带来革命,这是世界上计算密集度最高的行业之一,包括设计芯片、设计电子系统、CAE、CAD、EDA,当然还有数字生物学。所有这些市场,所有这些行业都需要大量的计算,但数据集也非常大。Grace Hopper是最理想的选择。600 GB内存是个很大的数字,我手上拿着的基本就是一台超级计算机。但想想看,12年前,当我们从AlexNet的6200万个参数开始训练120万张图像时,现在谷歌的Palm已经扩大了5000倍。当然,我们还会做更大的,它已经在超过300万倍的数据上进行了训练。因此,在十年的时间里,深度学习的计算问题对于软件来说增加了5000倍,数据集增加了300万倍。没有其他计算领域的增长速度如此之快。因此,我们一直在追求深度学习的进步已经有很长一段时间了,这将做出非常非常大的贡献。然而,600 GB仍然不够,我们需要更多。让我向你们展示一下我们要做什么。首先,我们有了Grace Hopper超级芯片,把它插入电脑。我们要做的第二件事是使用NVLink交换机将其中的八个连接起来,将八个芯片连接到三个交换托盘中,形成八个Grace Hopper吊舱。这八个Grace Hopper吊舱,每个Grace Hopper都以每秒900 GB的速度相连。然后,我们用第二层交换机将32个一级系统连接起来,256个Grace Hopper超级芯片的速度可达1 Exaflop(百亿亿次)。你知道,许多国家始终在致力于实现Exaflop计算。256个Grace Hopper可扩展为1 Exaflop转换器引擎,它为我们提供了144 TB的内存,每个GPU都可以看到。这不是144 TB的分布式部署,而是144 TB的连接。为什么我们不来看看它的真实面貌呢?这个设备包含150英里的线缆--光纤电缆;2000个风扇,能够每分钟净化7万立方英尺的空气,它可能用几分钟时间就能将整个会场的空气净化一遍。它的重量达到40万磅,等同于4头大象的重量。这是我们的新品牌Grace Hopper,它是台人工智能超级计算机,也是一个巨大的、完全不可思议的GPU。我们现在正在建造它,所有的每一个部件都在生产中。我们非常兴奋,谷歌云、Meta和微软将成为全球第一批接入的公司。他们将和我们一起在人工智能的前沿领域进行探索性研究。我们将把这些系统建成产品。因此,如果你想要一台人工智能超级计算机,我们会过来在你的公司里安装它。我们还与我们所有的云供应商共享这台超级计算机的设计图,以便云合作伙伴能够把它集成到他们的网络和基础设施中。我们还将在公司内部搭建这个超级计算机,以便自己进行研发。总体而言,DGX GH200超级计算机就如同是一个巨大的GPU。1964年,也就是我出生的第二年,对科技产业而言是伟大的一年。IBM在这一年推出了System/360大型计算机,AT&T向世界展示了第一部通过铜线和双绞线进行编码、压缩和传输的可视电话。这是一部解码的可视电话,小小的黑白屏幕。直到今天,这种体验也是如此。出于各种原因,我们都知道视频通话如今在我们的日常生活中必不可少。每个人都这样做。如今,视频占据了大约65%的网络流量。然而,它的实现方式基本上还是一样的。在设备上压缩,流式传输,然后在另一端解压缩。60年来什么都没变。我们对待交流就像它在一个哑管道(dumb pipe)里一样。问题是,如果我们将生成式人工智能应用于此,会发生什么?我们现在已经造出了计算机Grace Hopper.它可以很容易地在世界各地广泛部署。因此,每一个数据中心,每一台服务器都将具备生成式人工智能的能力。如果不仅仅是解压缩流和读取恢复解压缩,基于云端的生成式人工智能功能会带来什么样的结果?在刚才的视频片段中,所有从我嘴中说出的话都是由人工智能生成的,所以在未来,交流将不再是压缩、数据流和解压缩,而是感知、传输和重建、再生。它能够以各种不同的方式产生。它可以生成3D图像,也可以再生你的语言和另一种语言。所以,我们现在有了一个万能的翻译器。这种计算技术可以放入每一个单独的云中。但真正令人惊奇的是,Grace Hopper的运行速度太快了,它甚至可以运行5G堆栈(Stack)。目前,最先进的5G堆栈可以在Grace Hopper的软件中完全免费运行。突然,一个5G的无线电能够在软件中运行,就像过去在软件中运行的视频编解码器一样,现在可以在软件中运行5G堆栈。第一层,第二层--MAC层,也是5G的核心层,所有这些计算都非常密集。如今,整个堆栈现在可以在一个Grace Hopper中运行。基本上,这里正在发生的事情,你在这里看到的这台计算机,允许我们把生成式人工智能带入当今世界的每一个数据中心,因为我们有软件定义的5G,所以电信网络也可以成为像云数据中心一样的计算平台。未来的每一个数据中心都可能是智能的,每个数据中心都可以是软件定义的,无论是基于互联网、基于网络还是基于5G通信,一切都将被软件定义。借此良机,我们宣布与软银建立合作伙伴关系,共同把生成式人工智能和软件定义的5G堆栈重新设计和部署到全球软银数据中心网络中。我们对与软银建立合作关系感到非常兴奋。我刚刚谈到了我们将如何扩展人工智能的前沿,我谈到了我们将如何扩展生成式人工智能,将生成式人工智能扩展到高级生成式人工智能。全球的计算机数量确实非常可观,世界各地的数据中心以及未来十年的所有数据中心都将被回收,再造成为加速数据中心和具有人工智能能力的数据中心。但是在很多不同的领域,它们有很多不同的应用,科学计算,数据处理,大型语言模型训练,我们一直在谈论的生成式人工智能、EDA、SSD等等,面向企业的生成式人工智能。这些应用程序中的每一个都有不同的服务器配置,不同的应用程序发送的侧重点不同,不同的部署方式和安全性也不相同,操作系统不同,管理方式不同,计算机的位置也不同。因此,每一个不同的应用领域都必须用一种新型的计算机来重新设计。这只是数量庞大的配置。今天,我们宣布与众多公司合作,推出NVIDIA MGX服务器规范。这是一个开放式模块化服务器设计规范,专为加速计算而设计。今天的大多数服务器都是为通用计算而设计的。对于一个非常高密度的计算系统来说,机械、热和电是不够的。加速计算机将许多服务器压缩成一台。这样,你能够节省很多钱,节省了很多占地面积,但是它的架构是不同的。我们将它设计成多通用多代标准化产品,这样,一旦你进行投资,我们的下一代CPU、下一代GPU和下一代DPU将继续轻松配置到其中,我们就可以拥有最佳的上市时间和最佳的投资保护。我们可以针对不同的多样性和不同的应用程序配置成数百种配置,并集成到云或企业数据中心。你可以在母线或电源调节器中布线,也可以在热通道或冷通道中布线。不同的数据中心有不同的要求,我们使其模块化和灵活化,以便它可以适用于所有这些不同的领域。这些都是基本的功能。让我们来看看你可以用它做的其他事情。系统制造商可使用它快速且经济高效地构建100多种服务器配置,以适应广泛的AI、HPC及NVIDIA Omniverse应用。MGX支持英伟达全系列GPU、CPU、DPU和网络适配器,以及各种x86及ARM处理器。其模块化设计使系统制造商能够更有效地满足每个客户的独特预算、电力输送、热设计和机械要求。这个是Grace超级芯片服务器,它只是CPU,有能力经济地容纳四个CPU,四个灰色的CPU,或者两个灰色的超级芯片,但性能卓越。如果你的数据中心电力有限,这款CPU在电力有限的环境中具有令人难以置信的能力,可以运行PageRank算法,并且有各种各样的基准可以运行。Grace整个服务器仅消耗580瓦,而最新一代的CPU服务器,x86架构,消耗1090瓦。在相同的性能下,它基本上是一半的功率,或者换句话说,在相同的功率下,如果你的数据中心是功率受限的,可以获得两倍的性能。如今,大多数数据中心都是电力有限的,因此这确实是一项了不起的功能。我们喜欢服务器,我也喜欢服务器,它们对我来说很美。你现在看到的是我们的Grace Hopper,人工智能超级计算机。我要感谢你们所有人的大力支持,谢谢你们。我们要把人工智能拓展到一个新的领域。如果你看看世界上的数据中心,数据中心现在就是计算机。可以说,网络定义了数据中心的功能。大体上看,如今有两种类型的数据中心。一种是用于超大规模的数据中心,其中有各种不同的应用程序工作负载。这类数据中心主要使用CPU,使用GPU的数量相对较少。此类数据中心的用户数量非常多,工作量很不均匀,工作负载是松散耦合的。还有一种类型的数据中心,它们就像是超级计算机数据中心,人工智能超级计算机数据中心,其工作负载紧密耦合。它的用户数量非常少,有时只会是一个。它的用途是处理海量的计算问题。它基本上是无与伦比的。所以超级计算中心和人工智能超级计算机,世界云和超大规模云在本质上是非常不同的。以太网基于TCP,它是一种有损算法,且非常有弹性。每当有数据包丢失时,就会进行传输。它知道哪个数据包丢失了,并请求发送者重新发送。以太网能够连接几乎任何地方的组件,这是世界互联网诞生的原因。如果它需要太多的协调,我们怎么能建立今天的互联网?所以以太网有着深远的贡献。在以太网看来,有损能力是弹性能力,因为它基本上可以把几乎任何东西连接在一起。然而,一个超级计算数据中心负担不起。你不能把随机的东西连接在一起,因为对价值10亿美元的超级计算机而言,95%的网络吞吐量和50%的网络吞吐量之间的差距实际上是5亿美元。运行在整个超级计算机上的工作负载成本非常高昂,以至于企业无法承受网络中的任何损失。无限带宽(Infiniband)非常依赖于我们的DMA。这是一种流量控制,一种无损失的方法。它需要流量控制,这基本上意味着你必须从端到端了解数据中心、交换机到软件的瓶颈,以便可以利用适应路由来协调流量,处理拥塞控制,避免隔离区域中的流量过于饱和,从而导致数据包丢失。你根本负担不起,因为在无限带宽的情况下,它的损失更少。因此,一个有损耗,另一个损耗较少,非常有弹性,性能非常高。这两个数据中心完全不同。现在,我们希望把生成式人工智能带到每个数据中心。问题是,我们如何引入一种新型的以太网,它可以向后兼容一切,但其设计方式可以实现把人工智能工作负载带给世界上任何的数据中心。这是一次非常激动人心的旅程,这一战略的核心是我们做出的全新转变。这个是Spectrum-X。我今天展示的所有东西都很重。这是台有128个端口的交换机,每秒400千兆位。这是它的芯片,非常巨大。这个芯片拥有1000亿个晶体管,规格是90毫米乘90毫米,底部有800个球。这个交换机耗能2800瓦,它是空气冷却的,包含了48个PCB。也就是说,48个PCB合并在一起组成了Spectrum-X。该交换机旨在支持新型以太网。Spectrum-X基于网络创新,将英伟达Spectrum-4以太网交换机与英伟达BlueField-3 DPU紧密耦合,实现了相比传统以太网结构1.7倍的整体人工智能性能和能效提升,并通过性能隔离增强了多租户功能,在多租户环境中保持一致、可预测的性能。记得我说过什么吗?无限带宽从根本上说是不同的,因为我们从端到端构建无限带宽,我们可以进行自适应控制和自适应路由,这样我们就可以进行拥塞控制,从而隔离性能,这样我们就可以隔离有噪声的邻居,可以在结构计算中获得收入,所有这些功能在无损的互联网和以太网方法中都是不可能的。我们做无限带宽的方法是从头开始设计,就像超级计算机一样。这就是超级计算机的构造方式。我们也要做同样的事情。现在,对以太网而言,这是第一次,我们一直在等待关键的部分。我们将把这款新DPU带给全世界,因为每个数据中心都希望将自己变成一个生成式人工智能数据中心。有些人需要在整个公司部署以太网,并且他们的数据中心有很多用户,要拥有无限带宽的功能并将其隔离在数据中心内是非常困难的。我们第一次将高性能计算的能力带入以太网市场。我们将为以太网市场带来几样东西。首先是自适应路由。基本上是说基于通过数据中心的流量,取决于该交换机的哪个端口过度拥塞。它会告诉Bluefield-3,把它送到另一个端口。另一端的Bluefield-3将重新组装它,并将数据呈现给CPU,将数据呈现给计算机,然后呈现给GPU,完全在我们的DMA中进行,没有任何CPU干预。第一,自适应路由,第二,拥塞控制。这是可能的。某个不同的端口可能会变得严重拥塞,在这种情况下,交换机的遥测功能会让每个交换机了解网络的运行情况,并与发送方进行联系。请不要马上发送更多数据,因为网络目前拥塞。拥塞控制基本上需要一个重要的系统,其中包括软件、与所有端点配合工作的交换机,用于全面管理数据中心的拥塞或流量和吞吐量。现在,认识到在高性能计算应用中,每一颗GPU都必须完成自己的工作,这样应用才能继续前进,这一点非常重要。在许多情况下,你做所有的削减,你必须等到每一个单独的结果。如果一个节点花费的时间太长,所有人都会受到影响。这种能力将大大提高以太网的整体性能。真的很高兴推出Spectrum-X。英伟达Spectrum-X可加速在传统以太网
网络上可能会出现性能损失的AI工作流程作为Spectrum-X参考设计的草图和测试平台,我们正在以色列数据中心构建一台超大规模生成式人工智能超级计算机Israel-1。这台设备价值数亿美元,采用戴尔PowerEdge XE9680服务器、英伟达HGX H100超级计算平台、内置BlueField-3 DPU和Spectrum-4交换机的Spectrum-X平台。世界上的应用程序,世界上的企业还没有享受到生成式人工智能。到目前为止,我们一直在与CSPS合作。CSPS将能够为许多不同地区和行业中的许多不同应用带来生成式人工智能。伟大的旅程还在我们前面。世界上有如此多的企业和每个人,因为我之前提到的多模态能力,每个行业现在都可以受益于生成式人工智能。我们必须做几件事情。首先,我们必须帮助行业定制语言模型,不是每个人都能使用公共服务中的语言模型。对一些客户而言,他们需要高度专业化的语言模型。所有行业都有专有信息。我们如何帮助他们做到这一点?我们推出了云服务产品Nvidia AI Foundations,用于构建自定义语言模型和生成式人工智能模型,它包括语言、图像、视频和3D模型的开发服务。这些模型专为企业所在领域的特定任务而创建,并且在专有数据上训练。我们让这个模型运行Nvidia AI Enterprise,也就是我之前跟你们说过的操作系统。这个操作系统运行在每一个云中。这让这个非常简单的系统具有视频人工智能基础,用于训练大型语言模型并在视频人工智能企业中部署语言模型。它在每个模型中都可用,允许每个企业都能够参与。很少有人意识到的一件事是,如今只有一种软件堆栈是企业安全和企业级的,这种软件堆栈就是CPU。这是因为为了成为企业级,它必须是安全的,并且必须在其整个生命周期中得到企业管理和企业支持。加速计算中有如此多的软件,超过4000个软件包,这是人们今天在数据处理、培训和优化中使用加速计算一直到推理所需要的。这是我们第一次使用所有的软件,我们将像红帽对linux那样维护和管理它。现在,企业终于可以拥有企业级和企业级安全软件堆栈了。这是一件大事。否则,尽管加速计算的承诺对许多研究人员和科学家来说是可能的,但对企业而言却是不可能的。让我们来看看这对他们有什么好处。这是一个简单的图像处理应用程序。如果你是在GPU上运行它,而不是在CPU上,效率能够提升20多倍,或者你只需要支付5%的成本。这真是太神奇了。这就是云中加速计算的好处。但是对于许多公司来说,除非你有栈,否则就无法实现这一点。Nvidia AI Enterprise如今已经完全整合到了AWS、谷歌云、微软Azure和甲骨文云当中,当你在这些云中部署工作负载时,如果想要企业级软件,或者如果你的客户需要企业级优秀软件,Nvidia AI Enterprise正等着你。它还被集成到全球的机器学习产品线中。正如我之前提到的,人工智能是一种不同类型的工作负载和新型软件。这种新型的软件有一个全新的软件产业。我们通过Nvidia AI Enterprise已经同这个软件产业百分之百的连接在一起。现在让我告诉你人工智能的下一个阶段,人工智能遇到了数字孪生。人工智能为什么需要数字孪生?我马上就要解释了,但是首先让我展示一下你可以用它做什么。为了让人工智能了解重工业,就需要让人工智能有一个数字孪生。记住,到目前为止,人工智能只用于轻工业、信息、文字、图像、音乐等等,诸如此类。如果要在重工业使用人工智能,规模达到50万亿美元的制造业,所有不同的制造基地,无论你是在建芯片厂、电池厂还是电动车制造厂。所有这些都必须数字化,以便使用人工智能自动化设计和自动化未来的业务。我们要做的第一件事是,我们必须创造一种能力,让他们的世界可以用数字来表达。首先是数字化。为什么你会如何使用它?让我给你举个简单的例子。未来,你可以对你的机器人说,我想让你做点什么,机器人会理解你的话,并生成动画。记住,我之前说过你可以从文本到文本,可以从文本到图像,可以从文字到音乐。为什么不能从文字到动画?所以在未来,机器人技术将会被我们已经掌握的技术高度革新。然而,这个机器人怎么知道它产生的运动是基于现实的呢?它以物理学为基础。你需要一个理解物理定律的软件系统。现在,借助ChatGPT,事实上你们已经看到了这些。Nvidia AI可以使用Nvidia Omniverse,就像强化学习循环中的自我强化一样。ChatGPT能够使用强化学习,使用人类反馈来实现这一点。利用人类的反馈,ChatGPT能够以人类为基础进行开发,并使之与我们的原则相一致。因此,有人类反馈的强化学习非常重要。强化学习对于物理反馈非常重要。你们看到的所有视频内容都是模拟的,没有什么带有艺术成分。是不是很神奇?在过去的25年里,我来到这里时,你们总是卖东西给我。我现在很紧张,Omniverse将是我推销给你们的第一件商品。这是因为它将帮助你们彻底改变自己的业务,把它变成一个数字化的业务,并通过人工智能实现自动化。你们将首先以数字化的方式生产产品。在把它做成实物之前,你们会先建造工厂;在把它做成实物之前,先用数字来规划。所以在未来,Omniverse的业务规模将会非常大。现在我将很快向你们展示云中的Omniverse。Omniverse的整个堆栈非常复杂。我们把所有的事情都考虑到了云管理服务中,并且托管在微软Azure中。这是在加利福尼亚,距我们这里大约6264英里。视频仅仅延后了34毫秒,而且是完全互动的。一切都是光线追踪的。不需要艺术。你把整个CAD的所有东西都放进Omniverse,打开浏览器,把你的数据带进来,把你的工厂带进来。不需要艺术。灯光只是做了灯光该做的事情。多个用户,你想要多少就有多少,可以同时进入Omniverse,一起共事。你可以虚拟地建立整个公司的统一数据源,可以虚拟地设计、建立和运营工厂。在破土动工之前,不要犯错误,这种错误通常在集成的开始会产生很多变化,会花很多钱。不要只注意现在是人类与Omniverse互动,未来将会是生成式人工智能与Omniverse互动,我们甚至可以利用生成式人工智能帮助我们建立虚拟的世界。今天我们宣布,全球最大的广告机构WPP,将与英伟达合作,基于Omniverse和生成式人工智能开发内容生成引擎。它集成了许多不同合作伙伴的工具。例如,Adobe Firefly,被集成到整个环境中,使它能够为不同的用户和广告应用程序生成独特的内容。举例来说,在未来,无论何时你做了一个特定的广告,它都会为你而生。但是产品被精确地渲染出来,因为产品的完整性非常重要。每次你在未来投放一个特定的广告,它都会被检索出来。请注意,计算模式已经发生了变化。WPP制作了全世界25%的广告,全球60%的大公司都是他们的客户。我们还带来了自己的机器人平台Nvidia ISAAC AMR,它已成为任何想制造机器人的公司的参考设计。就像我们对高性能计算和视频所做的那样,我们构建了整个堆栈,然后我们将其分解。无论是否购买我们的芯片、整套系统或软件,无论是否采用我们的算法。如果你喜欢使用自己的算法,我们的业务都是开放式的,可以帮助你在任何你喜欢的地方集成加速计算。未来,我们将在机器人领域做同样的事情。从芯片到算法,我们从上到下构建了整个机器人堆栈。它完全是开放的,你们可以使用其中的任何一部分或全部。这是Nvidia ISAAC AMR,它包括一个名为Orin的芯片。这是世界上目前最先进的AMR。我们可以在ISAAC中设计机器人,模拟机器人,训练机器人,然后把大脑ISAAC SIM植入,让机器人变成实际的机器人。经过一定的调整,它应该能够完成同样的工作。这是未来的机器人,Omniverse和人工智能一起工作的生态系统。IT行业终于有能力理解物理世界的语言。我们可以理解重工业的语言。我们的软件工具Omniverse,允许我们模拟、开发、建造和操作我们的物理工厂、物理机器人、物理资产,就好像它们是数字化的一样。重工业的兴奋令人难以置信。我们一直在用Omniverse连接全球各国的工具公司、机器人公司、传感器公司,各种行业。正如我们所说,现在有三个行业正在大笔投资,即芯片行业、电池行业和电动车行业。这些行业未来几年将投入数万亿美元。他们都希望做得更好。我们现在给他们一个系统,一个平台工具,让他们去实现自己的愿景。我想感谢你们所有人今天的到来。我谈了很多事情。我们已有许久再未见面。所以我有很多话要告诉你们。昨晚我说了许多,今早又说了许多,话说的有点多了。总结一下:首先,我们正在经历两个计算机产业同步转型:加速计算和生成式人工智能。这种形式的计算不同于传统的通用计算,它是全栈式的。这是数据中心规模级的,因为数据中心就是计算机。对于你们想进入的每个领域、每个行业,它都是特定于领域的,你们需要拥有软件堆栈。如果你们有软件栈,那么效用,设备的利用率,计算机的利用率将会很高。其次,它是完整的堆栈数。我们正在全力开发生成式人工智能的引擎,那就是HGX H100。与此同时,这个会用于人工智能工厂的引擎将使用Grace Hopper进行扩展,也就是我们为生成式人工智能时代创造的引擎。我们也在使用Grace Hopper,并意识到我们一方面可以扩展性能,但也必须扩展规模,以便制作更大规模可训练的模型。NVIDIA MGX服务器规范,为系统制造商提供了模块化参考架构。系统制造商可使用它快速且经济高效地构建100多种服务器配置,以适应广泛的AI、HPC及NVIDIA Omniverse应用。我们希望将生成式人工智能扩展到全世界的企业,而服务器有如此多不同的配置。我们将视频放在云中,这样世界上的每个企业都可以让我们创建生成性人工智能模型,并以安全的方式部署它,在每个云中以企业级和企业安全的方式部署它。NVIDIA Avatar云引擎是一项定制AI模型代工服务,中间件、工具和游戏开发者可以使用它来构建和部署定制的语音、对话和动画人工智能模型。它能赋予非玩家角色更智能且不断进化的对话技能,使其能够以栩栩如生的个性来回答玩家的问题。基于英伟达Omniverse,ACE for Games为语音、对话和角色动画提供了优化的AI基础模型,包括:英伟达NeMo,使用专有数据,构建、定制和部署语言模型;英伟达Riva,用于自动语音识别和文本转语音,以实现实时语音对话;英伟达Omniverse Audio2Face,用于即时创建游戏角色的表情动画,以匹配任何语音轨道。最后,我们希望将人工智能扩展到全球工业领域。到目前为止,我身处的行业,也就是我们所有人身处的行业,只是世界整个行业的一小部分。有史以来第一次,我们正在做的工作可以涉及每一个行业,我们通过让工厂实现自动化,让机器人实现自动化来做到这一点。本文首发于公众号“腾讯科技”(ID:qqtech),欢迎关注。
版权声明:部分文章推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。
格上财富:十五年深度研究,甄选阳光私募、PE/VC、海外基金等高端理财产品,为您的资产增值保驾护航!