联手 OpenAI 最强竞对展开生成式 AI 反击战:亚马逊云科技将 S3 写入速度提升 10 倍、推出全新三层技术栈
一年前的 re: Invent 2022 大会上,生成式 AI 几乎没有被提及。但几天之后横空出世的 OpenAI ChatGPT 聊天机器人瞬间掀起变革的狂潮,裹挟着整个世界进入生成式 AI 新时代。
短短一年之间,生成式 AI 已经成为科技领域的发展重心。亚马逊云科技在今年的 re: Invent 2023 会议上突显了该技术如何成为这家云巨头议程的首要任务。
在今天的主题演讲中,亚马逊云科技首席执行官 Adam Selipsky 表示:“围绕生成式 AI 模型的创新具有爆炸性。”他补充说:“它将重塑我们在工作和家庭中交互的每一个应用程序。我们正在以一种跟以往完全不同的方式来探讨生成式 AI 的整个概念。”
并且他还具体介绍了亚马逊云科技的“生成式 AI 技术堆栈”,旨在为客户提供生成式 AI 应用程序、用于构建大型语言模型的新工具,以及加速模型训练和推理的基础设施。
在快速发展的 AI 领域中构建和部署生成式 AI 模型与应用,往往会带来一系列独特的挑战。亚马逊云科技的应对之法是一套新的生成式 AI 基础设施,由三层技术栈组成,分别是基础设施层、基础模型服务层和 AI 应用层,希望能帮助客户在这三层之上轻松进行创新。
“拥有最广泛和最深入的能力很重要,”Selipsky 说。“我们开始利用亚马逊云服务彻底重新思考 IT 基础设施。”
在今天 re:Invent 上近两个半小时的主题演讲中,Selipsky 提供了有关生成式 AI 策略的很多细节,Selipsky 认为,他们的全新 AI 技术栈在模型选择、芯片成本和性能方面都有优势,能够帮助 AI 开发者在构建、训练和运行生成式 AI 应用时立足基础模型占得先机。
随着对生成式 AI 的需求不断增长,GPU 供应出现了短缺。据报道,Nvidia 性能最优越的芯片在 2024 年之前可能已经售罄。台积电首席执行官最近表示对前景不太乐观,认为 Nvidia 以及 Nvidia 竞争对手的 GPU 短缺情况可能会一直持续到 2025 年。为了减少对 GPU 的依赖,一些有能力的科技巨头正在研发定制芯片,用于创建、迭代和产品化人工智能模型,亚马逊就是其中之一。
凭借着 Nitro 虚拟机管理程序以及 Graviton、Trainium 和 Inferentia 等芯片家族,亚马逊云科技已经积累起丰富的芯片开发技术经验,这也使其在云和生成式 AI 领域拥有显著优势。Selipsky 在此前接受外媒采访时解释了这些创新的切实好处,并强调了在计算能力与成本水平间取得平衡的重要意义。“生成式 AI 工作负载有着极高的计算密度,因此性价比绝对至关重要。”
今天,亚马逊云科技推出了为生成式 AI 和机器学习训练设计的云端 AI 芯片 Amazon Trainium2,以及第四代自研服务器 CPU 芯片 Amazon Graviton4。
Amazon Trainium2 为拥有数千亿甚至数万亿个参数的基础模型训练做了优化,性能相比 2020 年 12 月推出的第一代 Trainium 提高了 4 倍,同时能效提高了 2 倍。Trainium2 将在亚马逊云中的 Amazon EC Trn2 实例中使用,这是一个由 16 个芯片组成的集群,同时在 Amazon EC2 UltraCluster 产品中可扩展到多达 10 万个芯片。亚马逊表示,用由 10 万个 Trainium 芯片组成的集群来训练 3000 亿个参数的 AI 大模型,可将训练时间从数月缩短为仅几个星期。
今天早上发布的另一款芯片是基于 Arm 的 Graviton4,专注于推理环节。Selipsky 称,与在 Amazon EC2 上运行的上一代 Graviton 处理器 Graviton3(但不是更新的 Graviton3E )相比,Graviton4 的处理速度提高了 30%,内核增加了 50%,内存带宽增加了 75%。Selipsky 还强调,“我们现在已经在短短五年内推出了第四代芯片。其他云提供商甚至还没有交付他们的第一个服务器处理器。”
此外,亚马逊云科技宣布其 S3 对象存储服务推出重大更新:一种新的高性能、低延迟层 S3 存储类别 Amazon S3 Express One Zone,旨在为延迟敏感的应用提供个位数、毫秒级的每秒数十万次数据访问。Amazon S3 Express One Zone 的数据访问速度比 Amazon S3 标准版快 10 倍,请求成本降低 50%,计算成本降低 60%。
跟广大吃瓜群众一样,Selipsky 也注意到了最近 OpenAI 和微软曝出的“宫斗大戏”。
在此前接受外媒采访时,针对 Sam Altman 的突然离职和最终回归这一列事件,Selipsky 分享了自己的看法,“对企业来说,必须努力扩大技术获取来源;任何单一模型或者供应商都不应占据主导地位。最近发生的一切,也再次证明亚马逊云科技所选定路线的合理性。”Selipsky 认为“可靠的模型与可靠的供应商至关重要,而提供选项并致力于支持相关技术的云服务商也同样重要。”
“不会有一种模式能够统治一切,”在今天的大会上,Selipsky 说。“你需要尝试不同的模型,你需要选择合适的模型提供商。我认为过去 10 天发生的事件已经非常清楚地表明了这一点。”
Selipsky 在这个环节里重点介绍了 Amazon Bedrock 平台,表示已经有上万用户在使用 Bedrock。Amazon Bedrock 平台是亚马逊 4 月推出、9 月全面开放的大模型开发平台,支持用户调用来自亚马逊自己的泰坦(Titan)模型,以及 AI21 Labs、Anthropic、Stability AI 等第三方的多样化模型进行调用和定制化开发。
特别的是,亚马逊云科技还特地邀请了 Anthropic CEO Dario Amodei 到现场分享。在对谈中,他们提到 Anthropic 围绕亚马逊云服务打造了独家定制功能,用户只能通过 Amazon Bedrock 加 Anthropic 的第一方产品才能享受得到。“这些服务将提供重要的微调与定制功能,且在限定时期内仅在 Amazon Bedrock 上通过 Anthropic 的第一方产品对外发布。只此一家,别无分号。”
Anthropic 由前 OpenAI 工程师于 2021 年创立,其创始人“从一开始就在模型安全性方面有着不同的愿景”。今年 9 月 25 日,亚马逊云科技与 Anthropic 宣布达成战略合作,亚马逊云科技称将向 Anthropic 投资至多 40 亿美元,在体量上几乎可以与 OpenAI 同微软之间的合作相媲美。可以说,在争夺先进 AI 基础模型的竞赛当中,亚马逊云科技与 Anthropic 之间的战略合作伙伴关系已经成为其基础模型服务层中的重要组成部分。
具体来说,Amazon Bedrock 是一个可对托管基础模型进行访问的平台。其中既包括亚马逊云科技内部开发的 Amazon Titan 系列大语言模型(LLM),也提供来自其他厂商及开源生态系统的神经网络选项。亚马逊云科技此次还公布两项新功能:微调与持续预训练,允许客户针对特定任务对 Bedrock 中的大模型进行定制。
定制神经网络就是使用知识库中未包含的新数据进行模型训练。例如,电子商务企业可以利用产品文档进行模型训练,使其学会回答客户提出的产品相关问题。这种定制过程能够显著提高大模型的回答准确率。
亚马逊云科技此次推出的首个定制化功能为 fine-tuning 微调,允许开发人员在标记数据集上训练受支持的 Bedrock 模型。此类数据集包含样本输入、常见提示词以及针对这些提示词预先编写的 AI 答案。这些记录以问答形式组织而成,可供 AI 模型通过示例快速进行学习。
亚马逊云科技推出的另一项定制功能为 continued pretraining 持续预训练,面向的则是另外一组用例。它允许企业在规模极大的数据集上对 Bedrock 大模型进行定制,例如涉及数十亿 token 的代码库。所谓 token,就是对应几个字符或数字的数据单元。这项新功能还可使用新信息对训练数据集做定期刷新。
它还允许客户在未经标注的数据集上进行持续预训练。此类数据集包含样本输入,但往往并不具备 AI 模型所需要的输出示例。现在用户无需创建输出示例,因此能够大大减少创建训练数据集的工作量,从而降低 AI 定制成本。
亚马逊云科技生成式 AI 首席开发者布道师 Antje Barth 在博文中表示,“用户可以指定最多 10 万条训练数据记录,且一般在至少提交 10 亿条 token 后即可看到显著的定制效果。”
这个月,有报道称,微软员工被禁止使用其斥巨资投资的 OpenAI 的产品 ChatGPT。“出于安全和数据方面的考虑,许多人工智能工具不再供员工使用,”据说当时这是在微软内部网站上的消息。微软称,“虽然微软确实投资了 OpenAI,ChatGPT 也有内置的保护措施来防止不当使用,但该网站仍然是第三方外部服务。”
在今天的主题演讲中,有一个很有意思的点,在 Selipsky 讲述 Bedrock 很注重安全性和隐私保护能力时,大屏幕上则展示出了这则有关 ChatGPT 的新闻报道。
Selipsky 并没有点名微软,但他表达了对“友商”在缺少全面安全保障的情况下发布 AI 产品早期版本的行为表示惊讶,“令我难以置信的是,某友商居然在缺少全面安全保障的情况下发布 AI 产品的早期版本。他们对自己的模型以及数据的安全性没有信心。”
在今天的主题演讲中,亚马逊云科技还宣布推出 Amazon Q 预览版,该应用处于技术栈的最上层。有分析师认为 Amazon Q 是本届 re: Invent 上最具份量的发布。“这是在用 AI 武装开发者,帮助他们取得成功。”
Amazon Q 能够回答诸如“怎样使用亚马逊云科技构建 Web 应用程序?”之类的问题。经过亚马逊过去 17 年积累下的知识进行训练,Amazon Q 能够解答各种问题并提供相应的原因解释。
亚马逊云科技 CEO Adam Selipsky 在演讲中表示,“你可以使用 Amazon Q 轻松进行对话、内容生成并执行操作。Amazon Q 完全了解你的系统、数据存储库和运营需求。”
用户可以将 Amazon Q 接入组织指定的应用程序和软件(例如 Salesforce、Jira、Zendesk、Gmail 以及 Amazon S3 存储实例等),并据此进行自定义配置。Amazon Q 能够根据所有关联数据及内容进行索引,“学习”关于当前业务的方方面面,包括组织结构、核心概念和产品名称等。
例如,公司可以通过 Web 应用程序要求 Amazon Q 分析客户在使用哪些功能时遇到了问题、应该如何改进这些功能;也可以像使用 ChatGPT 那样直接上传文件(支持 Word 文档、PDF、电子表格等)并询问与内容相关的问题。Amazon Q 则通过联系、整合和数据(包括特定业务数据)提供响应与参考。
Amazon Q 不仅能够回答问题,还能作为助手生成或总结博文内容、新闻稿和电子邮件。它还为工作中的常规操作提供一组可配置的插件,包括自动创建服务工单、通过 Slack 中的特定团队以及更新 ServiceNow 中的仪表板等。为了防止错误,Amazon Q 要求用户在行动之前检查其操作建议,并展示结果以供验证。
如大家所想,Amazon Q 可以通过亚马逊云科技的管理控制台、各类 Web 应用程序以及 Slack 等聊天应用进行访问,而且对亚马逊云家族的产品和服务有着透彻了解。亚马逊云科技表示,Amazon Q 能够理解亚马逊云科技上各种应用工作负载间的细微差别,哪怕是只需运行短短几秒的应用、或者极少访问存储内容的程序也可以接受 Amazon Q 的指引和操作。
在台上,Selipsky 展示了一段高性能视频编码与转码应用示例。Selipsky 表示,在被问及哪种 EC2 实例最适合当前用例时,Amazon Q 列出了一份涵盖性能与成本因素的清单。
“我坚信这将是一场生产力层面的变革,希望来自不同行业、从事不同岗位的人们都能从 Amazon Q 身上获益。”
Amazon Q 与 Amazon CodeWhisperer 服务相结合,可以生成并解释应用程序代码。在受支持的 IDE(例如亚马逊云科技的 CodeCatalyst)当中,Amazon Q 可以为客户代码生成测试,借此衡量其质量水平。Amazon Q 还能创建软件新功能、执行代码转换,并为代码包、存储库和框架更新草案和文档,使用自然语言对计划进行完善和执行。
Selipsky 表示,亚马逊云科技内部的一支小团队就成功在短短两天之内,使用 Amazon Q 将上千款应用程序从 Java 8 升级到了 Java 17,甚至完成了相应的测试。
Amazon Q 的代码转换功能仅支持从 Java 8 和 Java 11 升级至 Java 17(后续将推出.NET Framework 到跨平台.NET 转换),且所有代码相关功能(包括代码转换)都需要配合 CodeWhisperer Professional 订阅服务。不清楚这方面要求后续是否会有所放松。
Selipsky 还再次强调了亚马逊云科技重视安全责任,让潜在生成式 AI 客户更加放心,“如果你的用户本来就无权访问某些内容,那么在使用 Amazon Q 之后也仍然无权访问。Amazon Q 理解并尊重用户的当前身份、角色和权限……我们也永远不会使用业务内容来训练底层模型。”
很明显,亚马逊云科技在 AI 云领域维持统治地位的核心战略,就是继续增强其云基础设施并为市场开发出独特的生成式 AI 技术栈。
Selipsky 认为亚马逊云科技的生成式 AI 技术栈有独特优势,“我们独特的生成式 AI 技术栈为客户提供了优于其他云厂商的比较优势。并不是每家竞争对手都愿意在各个层上开展创新,而客户也不清楚他们需要多长时间才能消弭这部分差距。”
生成式 AI 的兴起为大型云提供商开辟了一个巨大的新市场,在这个快速发展变化的过程中,行业已经深切感受到生成式 AI 适应性和创新能力的重要性。正如 Selipsky 所说,“适应能力是你可以拥有的最有价值的能力。”亚马逊云科技也通过 Graviton 前沿芯片、Trainium 等专用芯片、模型平台以及 Amazon Q 应用产品展示了这些创新要素。
可以看到,亚马逊云科技在其独特的三层生成 AI 技术栈上投入了巨大心力,希望借此支撑起多样化的 AI 模型与平台、战略合作伙伴关系、最具性价比的服务以及更丰富的技术选项。
Docker 的诅咒:曾以为它是终极解法,最后却是“罪大恶极”?
一个失败的 AI 女友产品,以及我的教训:来自一位中国开发者的总结
收官之战!2023 年最后一场会议——QCon 全球软件开发大会·上海站,将于 12 月 28-29 日在上海·中优城市万豪酒店举办。
此次大会策划了 GenAI 和通用大模型应用探索、AI Agent 与行业融合应用的前景、LLM 时代的性能优化、智能化信创软件 IDE、LLM 时代的大前端技术、高性能网关设计、面向人工智能时代的架构、构建本土编程语言生态的实践、性能工程:提升效率和创新的新方法、LLM 推理加速和大规模服务、现代数据架构演进、建设弹性组织的经验传递、SaaS 云服务弹性架构设计、大模型研究进展与产业应用展望等专题。
读者福利
微信扫码关注该文公众号作者