超卷一夜!AMD、谷歌纷纷亮出大杀器,剑指何方? |【经纬低调分享】
疯狂一夜,AMD和谷歌先后上新。
当地时间周三,AMD举行“Advancing AI”发布会,并发布备受瞩目的全新MI300系列AI芯片,包括MI300A和MI300X芯片,瞄准这一英伟达主导的市场。
其中,MI300X内存是英伟达H100产品的2.4倍,内存带宽是H100的1.6倍,进一步提升了性能,有望挑战英伟达在炙手可热的人工智能加速器市场上的地位。
几乎同一时间,谷歌宣布推出其认为规模最大、功能最强大的人工智能模型Gemini,这种技术能够处理视频、音频和文本等不同内容形式的信息,这意味着谷歌新模型在文本、视频、语音等多个领域超越了GPT-4。
谷歌首席执行官桑达尔·皮查伊在一篇博文中写道:“这个新模型代表了我们作为一家科技公司所做的最大的科学和工程努力之一,它也是一个多模态基础模型,可以概括和理解不同类型的信息,包括文本、代码、音频、图像和视频。”
这两家公司产品虽然不同,但却有着一个相同身份:反击者。
自从全球掀起了AI大模型热潮,以GPU为代表的算力芯片供不应求,而英伟达也成为了AI总龙头。AMD则是最有可能抢占英伟达市场的强有力竞争对手,在炙手可热的人工智能加速器市场与英伟达展开多轮对决。
而谷歌也需要一个契机。自OpenAI一年前推出ChatGPT以来,谷歌从原本的领先者转换成了跟随者,所以一直在努力开发能够与这家公司相抗衡的人工智能软件。
这一夜,我们看到两家科技公司技术又一次实现了大突破,也有望见证一次行业变革。那么,此次AMD和谷歌发布的新品,突破了哪些技术边界?如今的谷歌和AMD借势人工智能热潮,可否重回各自巅峰?这一夜对整个科技产业有着怎样的划时代意义?以下分别为大家介绍两家公司的新产品,Enjoy:
AMD“终极武器”来势汹汹
发布会上现场,AMD如期发布诸如了包括Instinct MI300X、MI300A、锐龙8040系列、AI PC芯片在内的大量新产品。同时,AMD正式公布了Instinct MI300系列加速器的详细规格与性能,以及众多的应用部署案例,将AI人工智能、HPC高性能计算提升到了新的层次。
1.“最强算力”Instinct MI300X、新款AI PC芯片如期登场
显然,AMD此次比以往更加专注算力和性能的提升。
AMD对于未来的市场预期猛然上升。在Advancing AI发布会的开场发言中,AMD的CEO苏姿丰给出了一组令股民们极为兴奋的数据:一年前AMD曾预期,数据中心加速器的市场规模,大概能从2023年的300亿美元倍增至2027年的1500亿美元。
而到了今天,AMD将2027年的市场规模预期猛然提升至4000亿美元,与此相对应的是70%的年化复合增长率,苏姿丰还提及,自己“希望AMD在这个市场中占有相当大的份额”。
“所有的兴趣都集中在面向云计算的大型处理器和大型GPU上。”苏姿丰在发布会现场这样表示。
据她介绍,此次发布的Instinct MI300X加速器由8个MI300X组成,提供高达1.5TB的HBM3内存容量。与Instinct MI250X相比,MI300X系统计算单元多出接近40%,还有1.5倍的内存容量,以及1.7倍的峰值理论内存带宽,传输数据速度更快,可以适应更大的人工智能模型。
半年前,AMD就已经公布过MI300系列芯片的参数
不少科技巨头也在现场为AMD背书。现场,微软CTO凯文·斯科特宣布,从今天开始微软Azure云将开放Instinct MI300X虚拟机的预览。OpenAI也宣布,该公司开发的GPU编程语言Triton,将从接下来的3.0版本开始支持MI300等AMD芯片。
Meta、甲骨文的高管则当场表示,将在自己的AI和数据中心服务中使用Instinct MI300X加速器。
苏姿丰还在现场宣布,Instinct MI300X加速器已从12月7日开始发货,同时,Instinct MI300A加速器也已经进入了量产阶段。
作为世界首款专为HPC和AI设计的APU,Instinct MI300A使用的HBM3内存规格为128GB。与Instinct MI250X相比,其性能功耗比能接近翻番。据介绍,其将Zen3 CPU、CDNA3 GPU整合在了一颗芯片之内,统一使用HBM3内存,彼此全部使用Infinity Fabric高速总线互联,从而大大简化了整体结构和编程应用。
这种统一架构有着多方面的突出优势:一是统一内存,CPU、GPU彼此共享,无需重复拷贝传输数据,无需分开存储、处理;二是共享无限缓存,数据传输更加简单、高效;三是动态功耗均衡,无论算力上侧重CPU还是GPU,都可以即时调整,更有针对性,能效也更高;四是简化编程,可以将CPU、GPU纳入统一编程体系,进行协同加速,无需单独进行编程调用。
除了硬件规格的提升,AMD也在发布会上发布了最新版本的ROCm 6开源软件平台。公司介绍称,ROCm 6在提升AI加速性能方面取得了显著进步,特别是在MI300系列加速器上运行Llama 2文本生成任务时,其AI加速性能比前一代硬件和软件提高了大约8倍。
值得一提的是,此次AMD在AI PC端也有所布局。
发布会上,AMD同步发布了锐龙8040系列移动处理器,整个系列共有9款芯片,预计搭载该系列的电脑将从2024年一季度开始发售。
据介绍,8040系列与上一代同样搭载锐龙AI NPU的7040相比,在AI任务的完成上有更好的提升。
在价格方面,AMD没有透露太多,但苏姿丰提到,英伟达的芯片价格在4万美元左右,“为了说服客户购买,AMD的芯片的购买和运营成本必须低于英伟达。”
现场的分析师活动中,苏姿丰还直接将Instinct MI300X及其构建的系统与英伟达的主要人工智能GPU H100进行了比较。
AMD表示,与H100 HGX相比,Instinct MI300X加速器在运行大语言模型推理时的吞吐量和时延表现要明显高出一截,其性能在各项AI和HPC项目中也明显要高出一头。
“这种性能直接转化为更好的用户体验,”苏姿丰说。“当你向模型提出要求时,你希望它能更快地回复,尤其是在反应变得更复杂的情况下。”
AMD有朝一日“顶替”英伟达的意图再明显不过,然而,软件生态的壁垒仍然是AMD需要面对的挑战之一。Cambrian-AI Research LLC的首席分析师Karl Freund曾指出,AMD的软件生态没有英伟达那么完善。训练和运行AI大模型不仅仅取决于GPU性能,系统设计也尤为重要。苏姿丰曾表示,“我们希望成为人工智能市场的重要参与者。”她提到,AMD正致力于在AI软件套件方面进行改进。
生成式AI和大模型的兴起,正比以往更要求极致的算力。很显然,AMD正在不断向这个需求靠拢。AMD推出MI300X加速器消息发布后,英伟达股价下跌1.5%。今年英伟达股价暴涨,使其市值超过1万亿美元,但真正问题在于,AI芯片市场不断加速的道路上,英伟达还能“一头独大”多长时间。
AMD似乎已经找到了属于自己的机会:大语言模型需要大量和高速的内存,而这,正是AMD的优势所在。
快速迭代的人工智能硬件市场,似乎在等待着新一次真正的“竞赛”。
2.AMD的AI梦,正面叫板英伟达
凭借上述产品,AMD能否与英伟达一较高下?苏姿丰持有乐观预期。
“我们仍处于AI生命周期的非常早的阶段。”苏姿丰预测,到2027年,数据中心AI加速器总潜在市场规模将增长5倍,从今年的300亿美元左右以超过50%的复合年增长率增长到2027年的1500亿美元以上。在今天发布会现场,苏姿丰宣称,AMD将2027年的市场规模预期猛然提升至4000亿美元。这足以表明AMD接下来在AI芯片领域布局的决心。
外界同样对苏姿丰领导的AMD寄予厚望。《福布斯》杂志评论称:“如果业界还有英伟达潜在的对手,那一定包括苏姿丰和她掌管的AMD。”在AMD发布2023年第三季度业绩报告后,投行Raymond James分析师重申了对AMD股票“强力买入”的评级,并指出这一决定很大程度上要归功于其AI业务,“AMD有一个良好的开端,它没有理由不能在价值超千亿美元的AI加速器市场长期占据10%至20%的份额。”
而他们的信心不仅来自于财报的数据,还有对芯片量产和交付的期待。2023年第三季度业绩报告显示,公司Q3营收录得58亿美元,每股收益0.70美元,均略强于市场预期的57亿美元和0.68美元。
同时,报告中还提到,AMD即将推出的MI300A和MI300X将在本季度实现量产。苏姿丰在电话会上表示,“我们现在预计,公司第四季度GPU的收入将达到约4亿美元,整个2024年将超过20亿美元。”这无疑是给了市场一剂强心剂。
实际上,在AI芯片市场中,AMD实在不算捷足先登者。而AMD在尝试满足对AI计算日益增长需求的同时,也通过推出适应最新需求的数据中心GPU来挑战英伟达在新兴市场的主导地位。但目前,数据中心的性能正被生成式AI和大语言模型的热潮推向极限,英伟达GPU被各家大厂争相抢购,这让每一位参与者都倍感压力。
根据市场调研机构New Street Research的数据,目前英伟达占据了可用于机器学习的GPU市场的95%。在AMD此次重磅发布的一个月前,在11月举办的2023年全球超算大会(SC23)上,英伟达推出了新一代GPU H200。资料显示,这一次,英伟达将AI芯片的发展方向引向了存储和推理能力——英伟达显然希望推动AI芯片从以算力为中心的竞争向更加多样化发展。
谁的核心技术市场占有率更高,谁才能在波谲云诡的AI市场走得更远。可以看到,在AI芯片的赛道上,AMD所面临的竞争并不小。
正如AMD的“领头人”苏姿丰所说,人工智能,会是“最大、最具战略意义的长期增长机会”,对芯片市场的两头巨兽来说,此刻在AI领域的拓展将会是它们扩大市场、打造生态的最佳节点,“双雄”的竞争会让技术的更新迭代不断加快,至于“对战”结果,还需时间来证明,静候分晓。
谷歌深夜上线复仇杀器Gemini
来源:新智元(ai_era)
谷歌的复仇大杀器Gemini,深夜忽然上线!
被ChatGPT压着打了整整一年,谷歌选择在12月的这一天,展开最强反击战。
多模态Gemini,迄今规模最大、能力最强的谷歌大模型,在文本、视频、语音等多个领域超越了GPT-4,是真正的一雪前耻。
人类有五种感官,我们所建造的世界、所消费的媒体,都是以这样的方式所呈现。
而Gemini的出现,就是迈向真正通用的AI模型的第一步!
Gemini的诞生,代表着AI模型的巨大飞跃,谷歌所有的产品,都将随之改头换面。
塞进多模态模型的搜索引擎、广告产品、Chrome浏览器……这,就是谷歌给我们的未来。
1.多模态的史诗级创新
以前,多模态大模型就是将纯文本、纯视觉和纯音频模型拼接在一起,就像OpenAI的GPT-4、DALL·E和Whisper那样。然而,这并不是最优解。
相比之下,在设计之初,多模态就是Gemini计划的一部分。
从一开始,Gemini就在不同模态上进行了训练。随后,研究人员又用额外的多模态数据进行了微调,进一步提升了模型的有效性。最终,实现了「无缝」地理解和推理各种模态的输入内容。
从结果上来看,Gemini的性能要远远优于现有的多模态模型,而且它的功能几乎在每个领域都是SOTA级别的。
而这个最大、最有能力的模型,也意味着Gemini可以用和人类一样的方式理解我们周围的世界,并且吸收任何类型的输入和输出——无论是文字,还是代码、音频、图像、视频。
Gemini猜对了纸团在最左边的杯子里
Google DeepMind首席执行官兼联合创始人Demis Hassabis表示,谷歌一直对非常通用的系统感兴趣。
而这里最关键的,就是如何混合所有这些模式,如何从任意数量的输入和感官中收集尽可能多的数据,然后给出同样多样化的响应。
DeepMind和谷歌大脑合并后,果然拿出了真东西。
之所以命名为Gemini,就是因为谷歌两大AI实验室的合体,另外也一个解释是参考了美国宇航局的Gemini项目,后者为阿波罗登月计划铺平了道路。
2.首次超越人类,大幅碾压GPT-4
虽然没有正式公布,但根据内部消息,Gemini有万亿参数,训练所用的算力甚至达到GPT-4的五倍。
既然是被拿来硬刚GPT-4的模型,Gemini当然少不了经历最严格的测试。
谷歌在多种任务上评估了两种模型的性能,惊喜地发现:从自然图像、音频、视频理解到数学推理,Gemini Ultra在32个常用的学术基准的30个上,已经超越GPT-4!
而在MMLU(大规模多任务语言理解)测试中,Gemini Ultra以90.0%的高分,首次超过了人类专家。
Gemini是第一个在MMLU(大规模多任务语言理解)上超越人类专家的模型
MMLU测试包括57个学科,如数学、物理、历史、法律、医学和伦理,旨在考察世界知识和解决问题的能力。
在这50多个不同学科领域中的每一个中,Gemini都和这些领域最好的专家一样好。
谷歌为MMLU设定的新基准,让Gemini在回答复杂问题前,能够更仔细地发挥推理能力,相比于仅依赖于直觉反应,这种方法带来了显著提升。
在新的MMMU基准测试中,Gemini Ultra也取得了59.4%的高分,这一测试包括了跨越不同领域的多模态任务,这些任务需要深入的推理过程。
图像基准测试中,Gemini Ultra的表现也超过了之前的领先模型,而且,这一成就是在没有OCR系统帮助的情况下实现的!
种种测试表明,Gemini在多模态处理上表现出了强大的能力,并且在更复杂的推理上也有着极大潜力。
详情可参阅Gemini技术报告:
报告地址:https://storage.googleapis.com/deepmind-media/gemini/gemini_1_report.pdf
中杯、大杯、超大杯!
Gemini Ultra是谷歌迄今为止创建的最强大LLM最大,能够完成高度复杂的任务,主要面向数据中心和企业级应用。
Gemini Pro是性能最好的模型,用于广泛的任务。它会为许多谷歌的AI服务提供动力,并且从今天起,成为Bard的支柱。
Gemini Nano是最高效的模型,用于设备端任务,可以在安卓设备上本地和离线运行,Pixel 8 Pro的用户就能马上体验到。其中,Nano-1的参数为1.8B,Nano-2为3.25B。
Gemini最基本的模型能做到文本输入和文本输出,但像Gemini Ultra这样更强大的模型,则可以同时处理图像、视频和音频。
不仅如此,Gemini甚至还能学会做动作和触摸这种更像机器人的功能!
以后,Gemini会获得更多的感官,变得更加有意识,更加准确。
虽然幻觉问题仍然不可避免,但模型知道的越多,性能就会越好。
文本、图像、音频精准理解
Gemini 1.0经过训练,可以同时识别和理解文本、图像、音频等各种形式的输入内容,因此它也能更好地理解细微的信息,回答与复杂主题相关的各类问题。
比如,用户先是上传了一段非英语的音频,然后又录了一段英语的音频来提问。
要知道,一般设计音频的归纳,都是用文字输入prompt。而Gemini却可以同时处理两段不同语言的音频,精准输出所需要的摘要内容。
更厉害的是,如果我想做一个煎蛋,不仅可以用语音问Gemini,还可以把手头有的食材拍个照片一并发过去。
然后,Gemini就会结合音频中发送的需求,以及配图中的食材,手把手教你该怎么做好一个煎蛋。
甚至,每完成一步,都可以拍个照片,而Gemini则可以根据实际进度继续指导下一步该做什么。
手癌星人、不会做饭星人都有救了!
而且,这项能力还这使Gemini特别擅长解释数学和物理等复杂学科的推理问题。
比如,家长想在辅导孩子作业的时候省点事,该怎么办呢?
答案很简单,直接拍张图上去,Gemini的推理能力足以解决数学、物理等各类理科问题。
针对其中任何一个步骤,都可以追问Gemini来获得更具体的解释。
甚至,还可以就出错的点,直接让Gemini输出一个和出错类型相似的题目巩固一下。
复杂推理轻松搞定
此外,Gemini 1.0具有的多模态推理能力,可以更好地理解复杂的书面和视觉信息。这使得它在发掘埋藏在海量的数据中难以辨别的知识方面具有优越的性能。
通过阅读、过滤和理解信息,Gemini 1.0还能够从成千上万的文档中提取出独到的观点,从而助力从科学到金融等众多领域实现新的突破。
AlphaCode 2:编码能力超85%人类选手
当然,基准测试终究只是测试,对Gemini的真正考验,是想要用它来写代码的用户。
写代码,就是谷歌为Gemini打造的杀手级功能。
Gemini 1.0模型不仅可以理解、解释和生成世界上最主流的编程语言,比如Python、Java、C++和Go的高质量代码。同时它能够跨语言工作,并对复杂信息进行推理。
从这一点看,Gemini毫无疑问会成为世界领先的编程基础模型之一。
两年前,谷歌推出过一款叫做AlphaCode的产品,它也是第一个在编程竞赛中达到具有竞争力水平的AI代码生成系统。
而基于定制版的Gemini,谷歌推出了更先进的代码生成系统——AlphaCode 2。
在面对不仅涉及编程,还涉及复杂的数学和计算机科学理论等领域的问题时,AlphaCode 2都表现出了卓越的性能。
在与初代AlphaCode同样的测试平台上,谷歌的开发人员也对AlphaCode 2进行了测试。
结果显示,新模型展现出了显著的进步,解决的问题数几乎是之前AlphaCode的两倍。
其中,AlphaCode 2编程的性能超过了85%的人类程序员,相比之下,AlphaCode只超过了约50%的程序员。
不仅如此,当人类程序员与AlphaCode 2协作时,人类程序员为代码样例设定特定的要求,Alphacode 2的性能会进一步提升。
AlphaCode 2的运作依托于强大的LLM,并结合了专为竞赛编程设计的先进搜索和重排机制。
如下图所示,新的模型主要由以下几部分组成:
- 多个策略模型,用于为每个问题生成各自的代码样本;
- 采样机制,能够生成多样化的代码样本,以在可能的程序解决方案中进行搜索;
- 过滤机制,移除那些不符合问题描述的代码样本;
- 聚类算法,将语义上相似的代码样本进行分组,以减少重复;
- 评分模型,用于从10个代码样本集群中筛选出最优解。
详情可参阅Alpha Code 2技术报告:
报告地址:https://storage.googleapis.com/deepmind-media/AlphaCode2/AlphaCode2_Tech_Report.pdf
3.更可靠、更高效、可扩展
对谷歌来说同样重要的是,Gemini显然是一个效率更高、更可靠、可扩展的模型。
它是在谷歌自己的张量处理单元上训练的,比谷歌以前的模型(如PaLM)运行起来更快、更便宜。
开发人员使用了谷歌内部研发的张量处理单元TPU v4和v5e,在AI优化的基础设施上对Gemini 1.0进行了大规模的训练。
而可靠、可扩展的训练模型和最高效的服务模型,就是谷歌做出Gemini的重要目标。
在TPU上,Gemini的运行速度明显快于早期规模较小、能力较弱的模型。这些定制设计的AI加速器是谷歌大模型产品的核心。
要知道,这些产品为搜索、YouTube、Gmail、谷歌地图、Google Play和Android等数十亿用户提供服务。它们还帮助了世界各地的科技公司经济、高效地训练大模型。
除了Gemini,谷歌在今天还发布了迄今为止最强大、最高效,并且可扩展的TPU系统——Cloud TPU v5p,专为训练尖端的AI模型而设计。
新一代TPU将加速Gemini的发展,帮助开发人员和企业客户更快地训练大规模生成式AI模型,开发出新产品和新功能。
4.Gemini,让谷歌再次伟大?
显然,在Pichai和Hassabis看来,Gemini的发布仅仅是一个开始——一个更大的项目即将开启。
Gemini是谷歌一直在等待的模式,在OpenAI和ChatGPT接管世界后,Gemini是谷歌探索一年得出的结论。
发布「红色警报」后,谷歌一直在追赶,但两人都表示,不愿意为了跟上步伐而走得太快,尤其是我们越来越接近AGI。
Gemini是否会改变世界?最好的情况是,它能帮谷歌在生成式AI竞赛中赶上OpenAI。
但劈柴、Hassabis等人似乎都认为,这是谷歌真正伟大的开始。
今天发布的技术报告,没有透露架构细节、模型参数或训练数据集。
艾伦人工智能研究所前CEO Oren Etzioni说,「没有理由怀疑Gemini在这些基准上比GPT-4更好,但没准GPT-5会比Gemini做得更好。」
打造像Gemini这样的巨量模型,可能需要花费数亿美元,但对于在通过云提供AI占据主导地位的公司来说,最终的回报可能是数十亿甚至数万亿美元。
「这是一场不能失败,必须打赢的战争。」
AMD和谷歌的故事从另一个角度告诉世界:在“狂飙”的时代里,一切转变和翻盘,都有可能发生。
看向未来,人工智能市场将进入一个竞争激烈和快速增长的时期。从医疗保健到汽车行业,对AI大模型有着更高期待,同样AI应用的日益增长需求确保了AI芯片市场的蓬勃发展。未来,我们将会看得到更多创新,也可预见到研发的激增,和更加前沿的技术较量。
AI领域竞争的加速时代已经到来,这场竞赛的意义不仅关乎谁先到达终点,更关乎如何将终点线推向更远,驱动整个行业向有更多科技奇迹的未知领域迈进。AI的未来,正以惊人的速度越过藩篱、加速增长,承诺着一个或由智能机器的力量所改变的世界。
References:
1.https://blog.google/technology/ai/google-gemini-ai/#availability
2.https://deepmind.google/technologies/gemini/#hands-on
3.AI算力芯片天下一分为四,中国实力渐显 BY/半导纵横(ID:icviewss)
4.热点丨AMD2023年底的重头戏,MI300X发布在即 BY/AI芯天下(ID:World_2078)
5.AI格局未定,英伟达先赚一步 BY/全天候科技(ID:iawtmt)
6.AMD,何时停止“仰望”?BY/中国电子报(ID:cena1984)
7.AMD推出MI300X加速器,较英伟达H100最多提升60%,猛增市场规模预期 BY/华尔街见闻
8.AMD发布会:“最强算力”Instinct MI300X、新款AI PC芯片如期登场 BY/财联社
头图来自https://unsplash.com/,如有侵权,请联系我们处理
经纬2022年终盘点:乐观者前行,follow the white rabbit
经纬张颖:2023,不只克服困难而是习惯困难
经纬张颖内部讲话:2024,四大关键决策
微信扫码关注该文公众号作者