Redian新闻
>
人工智能,重塑硬件构造

人工智能,重塑硬件构造

公众号新闻

来源:内容由半导体行业观察(ID:icbank)编译自hpcwire,谢谢。


在这篇文章中,全球战略咨询公司Altman Solon 探讨了生成式人工智能如何影响网络基础设施。并探讨了新兴企业生成式人工智能解决方案对计算、存储和网络基础设施的影响。


生成式人工智能的最佳代言人可能是 ChatGPT。这款由 OpenAI 开发的聊天、引人入胜的应用程序以栩栩如生的方式解答各种问题,令全球数百万人眼花缭乱。在幕后,OpenAI 令人印象深刻的大型语言模型 (LLM) 运行在庞大的超级计算基础设施上。就 ChatGPT 而言,OpenAI 依靠其合作伙伴 Microsoft Azure 的云计算平台来训练该模型。微软花费数年时间 将数千个 Nvidia 图形处理单元 (GPU) 连接在一起,同时管理冷却和功率限制。


Altman Solon 认为,企业级生成式人工智能工具的增长将导致对计算资源的需求增加,从而对进行训练的核心集中式数据中心和进行推理的本地数据中心产生积极的影响。网络提供商应该会看到对数据传输网络的需求适度增长以及对专用网络解决方案的推动。


我们使用四步方法来了解基础设施的影响,考虑每个生成式 AI 任务的平均计算时间要求、总体生成式 AI 任务的数量、所需的增量计算要求以及对基础设施价值链的可量化影响。为了满足这一需求,服务提供商需要开始规划足够的计算资源和网络容量。


量化企业生成式人工智能用例


Altman Solon 利用我们对 292 名高级商业领袖的调查数据,计算了四个业务职能部门(软件开发、营销、客户服务和产品开发/设计)每小时的生成式 AI 任务量。考虑到每个用例的潜在采用率、每个用例的平均用户数以及每个用户每小时的平均生成式 AI 任务, 我们估计明年仅在美国这些关键企业职能部门每小时就会执行 80-1.3 亿生成式 AI 任务。


跨企业职能部门每小时生成的 AI 任务



尽管我们的研究表明,客户服务采用生成式人工智能解决方案的速度慢于软件开发和营销,但客户服务任务将负责企业生成式人工智能的大部分使用。这主要是由于用户与生成式人工智能聊天机器人的交互量巨大。当然,计算不仅仅发生在LLM被查询时。构建和使用生成式人工智能需要大量的基础设施。


开发和使用生成式人工智能解决方案:训练和推理对基础设施的影响


构建和使用生成式人工智能工具时,在两个不同的阶段需要计算资源:训练模型,然后使用模型响应查询(也称为“推理”)。训练LL,需要向神经网络提供大量收集到的数据。就 ChatGPT 而言,大量文本数据被输入到法学硕士以识别单词和语言之间的模式和关系。随着模型处理新的文本数据,其性能得到改善,分配给神经连接的参数或值也发生了变化。GPT-3模型包含超过1750亿个参数;据推测 GPT-4 有 1 万亿个参数。


训练大型语言模型:从研究到人类反馈



尽管迭代大量数据来训练模型需要大量计算,但训练仅在模型开发期间进行,并在模型最终确定后停止。在 LLM 的生命周期中,训练将占用 10-20% 的基础设施资源。相比之下,推理是大多数工作负载发生的地方。当用户输入查询时,信息将通过生成人工智能应用程序的云环境提供。80-90% 的计算工作负载发生在推理期间,并且只会随着使用而增加。以 ChatGPT 为例,训练该模型据称需要花费数千万美元,但据报道运行该模型每周都会超过训练成本。


培训生成式人工智能解决方案:公共云和核心集中式数据中心感受到的最大计算影响


生成式人工智能模型往往在集中式核心数据中心进行训练和存储,因为它们拥有处理在LLM中循环的大量数据所需的 GPU。模型也存放在公共云中并进行训练,以消除入口和出口成本,因为训练数据已经驻留在公共云中。随着采用率的增长,我们预计推理将更多地在本地进行,以缓解训练模型的核心集中式数据中心的拥堵。然而,这也有一些限制:生成模型太大,无法容纳在传统的边缘位置,而传统的边缘位置往往具有更高的空间和电力成本,并且无法轻松扩展以适应资源匮乏的人工智能工作负载。


“我们[为超级计算机]构建了一个可以大规模运行且可靠的系统架构。这就是 ChatGPT 成为可能的原因。这就是其中的一个模型。还会有很多很多其他的,”微软 Azure AI 基础设施总经理 Nidhi Chappell 说道。


Altman Solon 认为,生成式人工智能工具的增长将对公共云产生最重大的影响。公共云提供商应重点关注区域和弹性容量规划以支持需求。在不久的将来,随着模型的成熟和关键计算资源变得更便宜,私有云环境可能会开始容纳和培训法学硕士。这对于制药、金融服务和医疗保健等受监管领域的行业特别有用,这些行业往往更喜欢在私人基础设施上开发和部署人工智能工具。


查询生成式人工智能工具:主干光纤和城域边缘网络感受到的网络影响最大


生成式人工智能工具的网络使用受查询量和复杂性的影响最大。例如,要求 ChatGPT 回答一个基本问题与要求其起草一篇 900 字的文章对网络使用的影响不同,就像要求 Dall-E 上的单个图像与一系列高清照片或视频一样。更长、更复杂的输出需要更多的数据,影响对骨干网和城域边缘网络日益增长的需求。对于连接到主要云平台或云环境之间的光纤尤其如此。我们预测,随着生成式人工智能的成熟并成为消费者和企业的主流,城域边缘网络的使用量将会增加。查询的数量可能会在特定的云阻塞点产生流量和计算或存储饱和,


对整个基础设施价值链的影响


尽管我们仍处于生成式人工智能采用的早期阶段,但我们相信,为了满足不断增长的计算、网络和存储需求,基础设施提供商应通过以下方式进行调整:


核心、集中式数据中心:模型开发人员依赖云提供商来满足训练的计算需求。在不久的将来,数据中心应重点关注容量规划,以确保为训练和推理工作负载提供足够的计算、电力和冷却资源。从长远来看,如果生成式人工智能模型激增,并且图像和视频生成法学硕士数量增加,那么核心集中式数据中心将面临网络和计算拥塞的真正风险。云提供商可以通过在都市数据中心/区域可用区提供可处理繁重的生成式人工智能工作负载的计算能力来降低这种风险。


此外,生成式人工智能对核心、集中式数据中心和云服务的需求是通过 Cohere 和 OpenAI 等模型提供商来满足的。因此,核心集中式数据中心应探索排他性合作伙伴关系,例如 Azure 和 OpenAI之间的合作伙伴关系,以确保锁定。与此同时,为了避免围绕单一提供商进行整合,核心、集中式 数据中心还应该寻求开源合作伙伴关系。将 LLM 技术集成到 PaaS 和 SaaS 业务中可能是促进采用和增加收入的明智方法。


主干网和城域光纤:需求的增长主要是由训练数据、推理提示和模型输出驱动的。流量拓扑也发生了变化:模型生成的内容源自核心、集中式数据中心,并且是实时生成的。因此,它不能预先存储在靠近最终用户的位置。主干网和城域光纤提供商应增加网络容量和出口带宽,以满足不断增长的需求。


此外,企业用户还担心数据隐私和驻留,尤其是当该数据用于训练时。这些担忧可能会导致对私有广域网解决方案的需求增加,尤其是包含云连接的广域网。最后,人工智能模型越来越多地托管在不同的云提供商或与其他企业应用程序和工作负载不同的计算环境中。这会导致延迟问题,骨干光纤提供商可以通过互连和对等来解决这一问题,特别是与核心、集中式数据中心和模型提供商。


城域数据中心和边缘计算:虽然我们预计推理将被推送到城域数据中心位置,但我们不期望相同的模型被推送到较小的“边缘”计算位置。目前,将推理工作负载推向边缘并没有太大的价值(或可行性),因为计算延迟仍然远远高于网络延迟,并且在核心、集中式数据中心很难获得生成式人工智能硬件,更不用说在边缘了。然而,在未来,较小的生成式人工智能模型可以针对边缘数据中心中现成的 CPU 进行优化。与此同时,边缘计算环境还可以针对补充工作负载,例如即时预处理、图像或视频预处理以及模型输出增强。


接入:接入网络的需求增长相对较小,因为早期的生成人工智能流量更类似于接入网络上的搜索流量。随着时间的推移,接入网络上生成式人工智能流量的复杂性和数量将会增加(例如生成视频),但只会适度影响接入带宽需求。


本地:本地硬件不满足生成式人工智能模型的要求,特别是在片上内存方面。虽然模型在可预见的未来不太可能在本地运行,但由于数据隐私问题以及在移动设备上本地运行法学硕士的吸引力,它是一个活跃的研究领域。


使用LL,来自动化基本业务功能不仅会影响员工和管理层。尽管如此,它也会影响生成人工智能本身的构建模块,从核心、集中式数据中心到原始设备制造商、芯片制造商和设计师。虽然未来尚未书写,但基础设施提供商应该考虑如何为需要大量计算、存储和网络资源的技术提供服务。


👇👇 点击文末【阅读原文】,可查看原文链接!


*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。


今天是《半导体行业观察》为您分享的第3471期内容,欢迎关注。

推荐阅读


FD-SOI,卷土重来

三雄并立的MCU市场

谷歌芯片,正在经历苹果时刻?


半导体行业观察

半导体第一垂直媒体

实时 专业 原创 深度


识别二维码,回复下方关键词,阅读更多

晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装

回复 投稿,看《如何成为“半导体行业观察”的一员 》

回复 搜索,还能轻松找到其他你感兴趣的文章!

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
快播破产注销,创始人王欣5年前已布局人工智能,出狱隔月便认缴股份人工智能,势不可挡如何用 2023 版 Ps 的人工智能,智斗甲方、背刺老板?思尔芯硬件仿真产品经理秦英明:超大规模集成电路硬件仿真挑战与实现|国产EDA技术公开课预告云计算+人工智能,会给企业服务带来什么?|甲子引力X杏林春暖百度李彦宏:大模型改变人工智能,也即将改变世界知圈专栏 | 人工智能的“智能”是什么?— 智能的原理(上)突破不确定性:生成式人工智能重塑管理硅谷人工智能创新之旅精彩回顾 | 与世界顶尖科技企业交流,探索人工智能创新之谜明明硬件比软件难,但为什么硬件工程师待遇还不如软件人工智能,真的不在乎人类的阻拦人工智能与机器人研究国际期刊(IJAIRR)正式成立,重点关注 AI、机器人及基础科学交叉学科丨 GAIR 2023微软亚研院谢幸:建设社会责任人工智能,让AI发展为人类安全的工具和助手生成式人工智能,影响了哪些行业和职位?人工智能如何重塑音乐行业研究人工智能,美国在这个国家面前只是“小弟”马斯克为xAI定目标:2029年实现通用人工智能,这是最后期限首届 2023· 上海站 FCon 全球金融科技大会:智能驱动,重塑金融数字化转型高盛两万字报告首发:生成式人工智能,到底是炒作还是真正的变革?携手共创更加美好的智能世界!2023世界人工智能大会在沪开幕,陈吉宁致辞,龚正主持人工智能立法提上日程:兼顾安全与发展,为人工智能治理打下框架性基础面对人工智能,要确保人类的金融安全美国国会大厦升国旗 向李洪志先生致敬黄奇帆:人工智能,赋能智慧城市的主战场事关生成式人工智能,7部门发文硅谷人工智能创新之旅总回顾 | 与世界顶尖科技企业交流,探索人工智能创新之谜工信部:构建从智能芯片到算法框架到大模型的全栈式人工智能产业链马斯克2023年世界人工智能大会演讲:我相信,中国会有很强的人工智能能力!(附视频&演讲稿)2023世界人工智能大会7月6日-8日举行!等你来看大模型、芯片、机器人、智能驾驶……人工智能,救不了存储芯片中国正在背离邓小平模式咀外文嚼汉字(243)“九轮草”与“报春花”5078 血壮山河之武汉会战 黄广战役 10人工智能与机器人研究国际期刊(IJAIRR)正式成立,重点关注AI、机器人及基础科学交叉学科丨 GAIR 2023
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。