Redian新闻
>
AMD GPU,将开源

AMD GPU,将开源

公众号新闻

👆如果您希望可以时常见面,欢迎标星🌟收藏哦~


来源:内容由半导体行业观察(ID:icbank)编译自tomshardware,谢谢。


AMD 表示,它有望在 5 月底发布其微引擎调度程序 (MES) 文档,随后发布源代码。然后,它将继续以开源方式发布 Radeon 堆栈的其他部分。该声明似乎是为了回应Tiny Corp 的 Tweet/X,该公司几个月来一直在社交媒体上公开与 AMD 通信(并经常批评)。


近几个月来,Tiny Corp 和 AMD 之间的讨论多次成为头条新闻。前者设计并预售了 TinyBox AI 服务器,该服务器由于使用相对便宜的 AMD Radeon GPU 而引起了人们的兴趣。然而,该公司的社交媒体及其创始人乔治·霍茨(George Hotz) 发现消费者级卡的行为不适合服务器级或企业级,因此变得非常直言不讳。


简而言之,Tiny Corp 希望更多/更深入地访问 AMD 硬件、固件和驱动程序 IP。该公司认为,只要能够充分访问固件和驱动程序堆栈,就可以使 Tiny Box 发挥其宣传的功能。尽管 Tiny Corp 是一家小公司,AMD 仍参与其中,甚至苏姿丰博士在 3 月初也加入了对话。早在三月份,Su 就表示“团队正在努力”,但 Tiny Corp 至今仍对自己所处的情况感到不满。


“我们正努力在 5 月底发布微引擎调度程序 (MES) 文档,并将跟进已发布的源代码以供外部审查和反馈,” AMD Radeon Twitter/X 官方帐户在 4 月初指出。“我们还开放了 GitHub 跟踪器,其中将提供有关修复和发布日期的最新状态。”


今天,我们看到 AMD 文档和开源进展的重大更新。在回应 Tiny Corp 的进一步讽刺时,红队图形部门重申了本月早些时候的 MES 文档声明。它补充说,“Radeon 堆栈的其他部分将在全年开源”,然后指示感兴趣的各方密切关注GitHub 存储库。


Tiny Corp 已经对 AMD 的声明做出了回应,将 MES 消息描述为“转移注意力”,并要求将架构的更多部分开源,并提供硬件调度程序的文档,它认为这是 Tiny Box 的原因系统死锁。


作为对使用 Tiny Box 这样的服务器并不特别感兴趣的 PC 爱好者,我们仍然对额外 Radeon 文档和开源软件的发布可能给我们带来的连锁反应非常感兴趣。如果 bug 被消除并通过像 Tiny Corp 这样的实体进行优化,这对其他 Radeon 用户来说应该是件好事。此外,这一开放举措可能有利于 Linux 开发人员和社区寻求从 Radeon 硬件中获得更多收益。


AMD的AI芯片战略


如果说 AMD 的故事就像过山车一样,那是轻描淡写了。因为2014 年的 AMD 和 2024 年的 AMD 之间存在着巨大的反差。十年前的 AMD 举步维艰,而今天的 AMD 正在复苏,关键的是,他们已经成为了许多市场的参与者。


与该领域的许多其他参与者一样,人工智能是主要关注点,该公司在内部建立了专门的人工智能团队,以涵盖快速发展的人工智能市场的完整端到端战略。


最近几周,AMD 首席执行官苏姿丰 (Lisa Su) 和计算与图形部门高级副总裁/总经理 Jack Huynh 均回答了行业分析师提出的有关 AMD 人工智能硬件战略的性质以及如何看待其产品组合的问题,我们来将其综合以下。


AMD 的 AI 硬件战略分为三个方面:


第一个是 AMD 的 Instinct 系列数据中心 GPU,以 MI300 系列的形式零售。


MI300X 有两种变体,专注于 AI - 它已成功获得 Microsoft 和 Azure 等大型云厂商以及TensorWave 等一些较小的以 AI 为中心的云的采用。


在最新的财报电话会议上,Lisa Su 评论称,对这些芯片的需求不断扩大,到 2024 年底,收入将从 20 亿美元增加到 35 亿美元。在发布会上,AMD 将自己与 NVIDIA 的 H100 进行了比较,标志着八芯片系统在 ML 训练中相同,但在 ML 推理中更好。


该系列的另一个变体是 MI300A,提供类似的规格,但是 CPU/GPU 组合,面向高性能计算。它已被采用到计划中的最大的全球超级计算机 El Captian 中,该计算机将使用机器学习模型来协助保护美国核储备。


在谈到 MI300 的采用时,Lisa 表示:


“我们感到惊喜,很高兴看到 MI300 的发展势头,以及这种势头的来源。大型云[客户]通常移动速度最快——从工作负载[到工作负载]。LLM 非常适合 MI300 - 我们的内存容量和内存带宽[处于市场领先]。人工智能是最主要的工作负载。[我们]拥有相当广泛的客户群,他们有不同的需求 - 有些是训练,有些是微调,有些是混合的。当我们从客户开始时,[但是]从模式中失去了信心。[我们在软件环境方面也花费了]大量工作。新客户[发现]更容易达到他们的性能期望,因为 ROCm(AMD 的软件堆栈)正在变得成熟。[我们] [MI300] 最大的工作负载是大型语言模型。”


还应该指出的是,AMD 最近宣布正在将其芯片间通信协议(称为 Infinity Fabric)扩展到 Arista、Broadcom 和 Cisco 等特定网络合作伙伴。我们希望这些公司能够构建 Infinity Fabric 交换机,使 MI300 能够在单一系统之外实现芯片间通信。


AMD 战略的第二个方面是他们的客户端 GPU 系列。


这包括 AMD 的 Radeon 独立显卡 (GPU) 及其 APU,后者由集成到客户端 CPU 上的 GPU 组成,主要用于笔记本电脑。AMD 人工智能战略的第一个和第二个方面都依赖于他们的计算堆栈,称为 ROCm,它是 AMD 与 NVIDIA CUDA 堆栈的竞争对手。


关于 ROCm(即使是最新版本)的长期抱怨是企业和消费类硬件之间的支持不一致 - 只有 AMD 的 Instinct GPU 能够正确支持 ROCm 及其相关库并选择独立 GPU,而 CUDA 几乎可以在所有 NVIDIA 硬件上运行。


然而,杰克在我们的问答中说:


“我们[目前]在我们的 7900 旗舰机上启用 ROCm,以便您可以执行一些人工智能应用程序。我们将更广泛地扩展 ROCm。” “有些学校、大学和初创公司可能买不起非常高端的 GPU,但他们想要进行修补。我们希望使该社区成为开发者工具。”


我们希望这意味着 ROCm 对当前一代硬件以及所有未来版本的支持更广泛 - 不仅仅是他们的旗舰 RX7900 系列。


Lisa 还对 AMD 的软件堆栈发表了评论:


“最近的大问题是软件。我们在软件方面取得了巨大进步。ROCm 6 软件堆栈是一个重大进步。在软件方面还有很多工作要做……我们希望抓住巨大的机遇。”


AMD 的第三个方面是他们的 XDNA AI 引擎。


虽然该技术来自 Xilinx,但该 IP 在收购之前已授权给 AMD。这些人工智能引擎正在集成到笔记本电脑处理器中,并将作为微软 AIPC 计划的 NPU 呈现,以与英特尔和高通的产品竞争。这些 AI 引擎专为低功耗推理而设计,而不是高功耗 GPU 能够进行的高吞吐量推理或训练。


在评论 NPU 与 GPU 的地位时,Lisa 说:


“人工智能引擎在某些地方会更加流行,例如个人电脑和笔记本电脑。如果您正在寻找大规模、更多的工作站笔记本电脑,[他们]可能会在该框架中使用 GPU。”


AMD 看到了多种人工智能工作负载和引擎的未来:CPU、GPU 和 NPU。值得注意的是,空间中的其他人都发出同样的声音。


Jack评论说:


“[对于] NPU,微软由于功效而大力推动[它]。NPU 仍然可以驱动体验,但不会损害电池[寿命]。我们将赌注押在 NPU 上。我们将在 AI 上实现 2 倍和 3 倍……NPU 的关键在于电池寿命 - 在台式机中,您往往不用担心电池,而且还可以将 [NPU 支持的]自定义数据格式带入台式机。”


这种三管齐下的方法使 AMD 能够在各个方面解决人工智能领域的问题,这表明并非所有鸡蛋都必须放在同一个篮子里。AMD 使用这种方法已经取得了一些成功——在数据中心领域,AMD 被认为是 NVIDIA 最接近的竞争对手。MI300 的内存容量和带宽使其能够与 NVIDIA 的 H100 硬件(我们仍在等待 B100 基准测试)进行良好的竞争。NPU 领域仍然太新且不稳定,无法真正确定 AMD 的战略是否获得回报;不过,微软很可能会将 NPU 用于本地机器学习模型,例如助手或“‘co-pilot”模型。


从我们的角度来看,AMD 战略的弱点在于桌面 GPU 方面,因为整个 AMD 硬件堆栈缺乏近乎普遍的 ROCm 支持。这是一个需要时间才能解决的问题——战线分裂的缺点之一是资源的划分。AMD 将要求严格的管理,以确保整个公司的工作不会重复。不过,也有积极的一面,AMD 不断提高对 2024 年数据中心收入的预测,声称限制只是需求,而不是供应。


原文链接

https://www.tomshardware.com/pc-components/gpus/amd-pushes-forward-with-its-radeon-stack-open-sourcing-plans-after-being-prodded-by-tiny-corp


点这里👆加关注,锁定更多原创内容

END


*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。



今天是《半导体行业观察》为您分享的第3744期内容,欢迎关注。


推荐阅读


EUV光刻机重磅报告,美国发布

碳化硅“狂飙”:追赶、内卷、替代

芯片巨头,都想“干掉”工程师!

苹果,玩转先进封装

GPU的历史性时刻!

大陆集团,开发7nm芯片

张忠谋最新采访:中国会找到反击方法

EUV光刻的新“救星”

『半导体第一垂直媒体』

实时 专业 原创 深度

公众号ID:icbank


喜欢我们的内容就点“在看”分享给小伙伴哦

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一地鸡毛(3)开源日报 | 微软AI程序员登场,马斯克开源Grok;Open-Sora全面开源10年前的GPU,需求还非常大解次馋黄仁勋重磅发布!英伟达剧透新一代最强GPU,打破摩尔定律掀起新工业革命英伟达推「万亿参数」GPU,继续加速「AGI 时代」为什么说GPU再火,AI平台也少不了强力的CPUYandex 开源 LLM 训练工具,可节省高达 20% 的 GPU 资源从零开始手搓GPU,照着英伟达CUDA来,只用两个星期China Blocks Using Intel, AMD Chips in Government Computers,野心藏不住了!不满CPU统治,英伟达决定彻底重写软件开发栈!黄仁勋:为什么还要用Python?命令行都不需要!GPU开发时代将至任天堂杀不死Yuzu,还有千千万万个 “转世” 开源模拟器研发光子计算芯片OPU,「光本位」完成近亿天使+轮融资丨早起看早期一个拥有2560 个GPU,316800 个CPU核心的超算微软狂屯GPU,目标180万颗国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑什么开源PUA大师语录:“你想参与开源项目?不,你并不想”GPU/TPU集群主流组网分析业界首次!搭载英伟达GPU,50倍性能提升!Zilliz发布Milvus 2.4向量数据库通威THC、TNC组件双双刷新世界纪录;Arm发布基于3nm芯片工艺的新CPU、GPU IP丨智能制造日报老黄最近攻势很猛啊!英伟达宣布推出新款 GPU“黑好”!英特尔打破40年“祖制”的CPU,AI PC们来验收成果了AI行业买英伟达GPU,花的钱比赚的多17倍美股基本面 - 2024_02_23 * 晨报 * 巴菲特2024年股东信将于2月24日发布。德国去年底遭受投资下滑之苦 经济台积电董事长预测:未来15年每瓦GPU性能提升1000倍,GPU晶体管数破万亿!DPU,博通和英特尔同时发布芯片战争早已打响!谷歌15个月打造首个TPU,欲和老黄平起平坐OpenAI有望在今年夏季推出GPT-5;英伟达推出更强GPU芯片;马斯克宣布正式开源Grok-1|AIGC周观察第三十七期旅行的尽头是日本(21)日本的曼陀山庄——山县有朋故居“椿山庄”微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行JVM/编译器/CPU,究竟谁是卧底?一个曾经困扰我一个月的 bug回忆GTC 对话黄仁勋:我眼中的 GPU,和别人有很大差别北京算力基建实施方案重磅发布!重点支持采购自主可控GPU,要支撑万亿参数大模型训练安远AI&北京大学:2024基础模型的负责任开源-超越开源闭源的二元对立:负责任开源的内涵、实践与方案报告研发光子计算芯片OPU,「光本位」完成近亿天使+轮融资|36氪首发阿里云李鹏:进一步压榨云上GPU资源,将大模型训推效率最大化丨GenAICon 2024
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。