亚马逊,大力发展芯片
来源:内容由半导体行业观察(ID:icbank)编译自CNBC,谢谢。
德克萨斯州奥斯汀市一栋没有标记的办公楼里,两个小房间里放着一些亚马逊产品员工设计两种类型的微芯片来训练和加速生成人工智能。这些定制芯片 Inferentia 和 Trainium 为 AWS 客户提供了在Nvidia上训练大型语言模型的替代方案,因为GPU 的采购变得越来越困难且昂贵。
亚马逊网络服务首席执行官 Adam Selipsky在 6 月份接受 CNBC 采访时表示:“全世界都希望有更多芯片用于生成人工智能,无论是 GPU 还是我们正在设计的亚马逊自己的芯片。” “我认为我们比地球上任何其他人都更有能力提供我们的客户共同需要的容量。”
然而,其他公司则采取了更快的行动,投入了更多资金,以从生成式人工智能热潮中获取业务。当OpenAI 在 11 月推出 ChatGPT时,微软
因托管病毒式聊天机器人以及据报道向 OpenAI 投资 130 亿美元而受到广泛关注。该公司很快将生成式人工智能模型添加到自己的产品中,并于二月份将其合并到 Bing 中。
同月,谷歌推出了自己的大型语言模型 Bard,随后向OpenAI 竞争对手 Anthropic 投资了 3 亿美元。
直到四月份,亚马逊才宣布推出自己的大型语言模型系列(名为 Titan),以及一项名为 Bedrock 的服务,以帮助开发人员使用生成式人工智能增强软件。
“亚马逊不习惯于追逐市场。亚马逊习惯于创造市场。我认为,很长一段时间以来,他们第一次发现自己处于不利地位,并且正在努力追赶,”Gartner 副总裁分析师Chirag Dekate 说。
Meta近还发布了自己的大模型Llama 2。开源的 ChatGPT 竞争对手现在可供人们在微软的 Azure 公共云上进行测试。
芯片是“真正的差异化”
Dekate 表示,从长远来看,亚马逊的定制芯片可以使其在生成人工智能领域占据优势。
“我认为真正的差异化在于他们所发挥的技术能力,”他说。“你猜怎么着?微软没有 Trainium 或 Inferentia,”他说。
AWS 早在 2013 年就悄悄开始生产定制芯片,使用一种名为 Nitro 的专用硬件。它现在是销量最高的 AWS 芯片。亚马逊告诉 CNBC,每台 AWS 服务器都至少有一片,使用中的服务器总数超过 2000 万台。
2015年,亚马逊收购了以色列芯片初创公司Annapurna Labs。然后在 2018 年,亚马逊推出了基于 Arm 的服务器芯片 Graviton ,这是AMD和英特尔等巨 x86 CPU 巨头的竞争对手。
“Arm 可能占服务器总销售额的个位数甚至 10%,其中很大一部分将来自亚马逊。因此,在 CPU 方面,他们做得相当好。”伯恩斯坦研究。
同样是在 2018 年,亚马逊推出了专注于 AI 的芯片。两年前,谷歌宣布推出首款张量处理器单元(TPU)。微软尚未宣布其正在开发的 Athena AI 芯片,据报道该芯片与 AMD 合作。
CNBC 参观了亚马逊位于德克萨斯州奥斯汀的芯片实验室,Trainium 和 Inferentia 就是在这里开发和测试的。产品副总裁 Matt Wood 解释了这两种芯片的用途。
“机器学习分为这两个不同的阶段。因此,你训练机器学习模型,然后对这些经过训练的模型进行推理,”伍德说。“相对于在 AWS 上训练机器学习模型的任何其他方式,Trainium 的性价比提高了约 50%。”
继 2019 年发布 Inferentia(目前已是第二代)之后,Trainium 于 2021 年首次上市。
Inferentia 允许客户“提供非常非常低成本、高吞吐量、低延迟的机器学习推理,这是当您在生成人工智能模型中输入提示时的所有预测,所有这些都将被处理到给你回应,”伍德说。
然而,就目前而言,在训练模型方面,Nvidia 的 GPU 仍然是王者。7 月,AWS推出了由 Nvidia H100 支持的新型 AI 加速硬件。
Rasgon 表示:“Nvidia 芯片拥有一个庞大的软件生态系统,在过去 15 年里,围绕它们建立起来的软件生态系统是其他公司所没有的。” “目前人工智能的最大赢家是英伟达。”
利用云优势
然而,AWS 的云主导地位是亚马逊的一大差异化因素。
“亚马逊不需要赢得头条新闻。亚马逊已经拥有非常强大的云安装基础。他们所需要做的就是弄清楚如何让现有客户能够利用生成式人工智能扩展到价值创造活动,”德凯特说。
当在亚马逊、谷歌和微软之间选择生成式人工智能时,数以百万计的 AWS 客户可能会被亚马逊吸引,因为他们已经熟悉亚马逊,运行其他应用程序并在那里存储数据。
“这是一个速度问题。这些公司能够以多快的速度开发这些生成式 AI 应用程序,这取决于首先从 AWS 中拥有的数据开始,并使用我们提供的计算和机器学习工具,”AWS 技术副总裁Mai-Lan Tomsen Bukovec 解释道 。
根据科技行业研究机构Gartner的数据,AWS 是全球最大的云计算提供商,到 2022 年将占据 40% 的市场份额。尽管营业收入连续三个季度同比下降,但AWS第二季度仍占亚马逊整体77亿美元营业利润的70 %。AWS 的运营利润率历来远高于谷歌云。
AWS 还拥有不断增长的专注于生成式 AI 的开发人员工具组合。
“让我们把时间倒回到 ChatGPT 之前。这并不像那件事发生之后,我们突然匆忙制定了一个计划,因为你不可能在那么快的时间内设计出芯片,更不用说你无法在大约 2 到 3 个月的时间。”AWS 数据库、分析和机器学习副总裁 Swami Sivasubramanian 说道。
Bedrock 使 AWS 客户能够访问由Anthropic、Stability AI、AI21 Labs 和亚马逊自己的 Titan 制作的大型语言模型。
“我们不相信一种模型会统治世界,我们希望我们的客户能够拥有来自多个提供商的最先进的模型,因为他们会为正确的工作选择正确的工具,”西瓦苏布拉马尼安说道。
👇👇 点击文末【阅读原文】,可查看原文链接!
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3492期内容,欢迎关注。
推荐阅读
半导体行业观察
『半导体第一垂直媒体』
实时 专业 原创 深度
识别二维码,回复下方关键词,阅读更多
晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装
回复 投稿,看《如何成为“半导体行业观察”的一员 》
回复 搜索,还能轻松找到其他你感兴趣的文章!
微信扫码关注该文公众号作者