大模型时代下的技术变革:训练、负载、部署、效率、安全……都遇到了新挑战?
随着互联网的快速发展,AI 大模型算的上是当前行业里最“炽手可热”的技术,大模型是 AI 领域的重要发展趋势。大模型需要大量的数据和计算资源,同时也需要强大的应用场景支持,对各行各业都有深远的影响,各厂商开始了“千模大战”。
当前,在 AI 大模型的研发和应用方面,产业界和学术界在很多方面都有深入的合作和探索。产业界和学术界都有各自的优势——产业界在数据采集、计算资源、应用需求理解等方面有独特的优势,学术界则在理论创新、方法研究、前沿技术探索等方面有显著的优势。
然而,在这个大模型时代,算力资源、数据质量和规模都对模型的性能有着至关重要的影响,包括数据安全也是当前亟需解决的问题。所以,在产业界和学术届深度融合探索下的 AI 大模型技术都有了哪些进展和变化?在这个过程中,是否释放出了新机遇?这两个问题的答案似乎在英特尔及其伙伴的实践中找到了。
随着人工智能和深度学习的发展,模型训练所需的数据量和处理能力在不断增加。多家研究报告显示,当前大型模型的训练数据量通常都达到了数百万甚至数千万级别。这些大型模型在进行训练时,需要处理的参数量相当庞大,例如 GPT-3 在训练时使用了 28.5 万 CPU 核心,总算力为 17.5 亿亿次,消耗了大约 250 万美元的 GPU 算力。大模型对大规模数据和计算资源的需求,对算力相关的硬件和软件都提出了更高要求。
为了提高模型的效果,往往需要采用更复杂的模型结构和训练策略,这也进一步增加了算力需求。同时,由于模型训练需要大量的时间和资源,训练时间也成了制约大模型发展的一个重要因素。对于一般企业而言,拥有如此强大的计算资源并不现实,因此企业都在积极寻找可以迭代优化模型训练和推理的基础设施。
然而算力与成本之间存在着明显的矛盾。首先,大模型训练需要大量的算力资源,而这些资源通常需要花费高昂的成本来获取。其次,数据传输和处理也会产生大量的成本,因为需要将大量数据从存储设备传输到计算设备进行处理。此外,硬件维护和软件开发也需要投入大量的人力物力。因此,在提高大模型训练效果的同时,厂商需要考虑如何平衡算力与成本之间的关系。
从整个模型的生态来看,其对于整个生态的部署要求肯定是“效率越来越高、成本越来越低”越好。英特尔院士、大数据技术全球 CTO 戴金权对此也表示:“从计算的角度来看,大模型需要很多的预训练,把模型预训练出一些比较好的基数。训练之后如何去用它、部署它,包括推理效率、微调效率,包括大模型其实是嵌入在一个端到端的一个工作流里面去后还能保持工作负载平衡。从这种计算角度来说,除预训练外,还需要做更多计算场景的策略和优化。”
戴金权的观点也显示出了英特尔的技术探索路径。为了保证负载平衡,英特尔提出了 Habana®Gaudi®2 的解决方案,其专注于深度学习的高性能解决方案,可满足大规模、高复杂性生成式 AI 和大型语言模型 (LLM) 训练工作负载的需求。
Gaudi2 采用经过验证的高性能深度学习 AI 训练处理器架构,利用 Habana 完全可编程的 TPC 和 GEMM 引擎,支持面向 AI 的高级数据类型,如 FP8、BF16、FP16、TF32 和 FP32 等,是一款性能更高的计算架构。值得一提的是,TPC 是一款 VLIW SIMD 矢量处理器,其指令集和邮件经过定制,不仅支持深度学习训练和推理工作负载,还可高效处理工作负载。
除了计算能力突出,Gaudi2 的内存带宽和容量也十分突出,其采用先进的 HBM 内存技术,内存容量高达 96GB,内存带宽高达 2.4TB/s。Gaudi 先进的 HBM 控制器已针对随机访问和线性访问进行了优化,在各种访问模式下均可提供高内存带宽。
Gaudi2 的能力其实就是帮助企业通过优化训练流程来降低成本——通过提高训练效率来减少训练时间,同时优化模型结构,减少参数量,从而降低算力和成本。除了这两种方式,企业其实还可以采用更加经济的算法和硬件资源来实现“算力与成本之间的平衡”,例如使用 GPU 代替 CPU 进行计算,目前很多硬件厂商也都在此方向上进行发力。
比如英特尔®Data Center GPU Max 系列则是专为应对最严苛的高性能计算 (HPC) 和 AI 工作负载而设计。英特尔 ®Xe Link 高速、一致的统一架构可灵活运行任何外形规格,实现纵向扩展和横向扩展。其利用“基于独立 SRAM 技术”的高达 408 MB 的 L2 高速缓存 (Rambo)、64 MB 的 L1 高速缓存,以及高达 128 GB 的高带宽内存,确保高容量和高带宽。同时还利用每个英特尔® Max 系列 GPU 上高达 128 个光线追踪单元,加速了科学可视化和动画过程;利用搭载深度脉动阵列的英特尔® Xe Matrix Extensions (XMX),在单个设备上加速了 AI 工作负载,并启用矢量和矩阵功能,极好地帮助企业找到了算力与成本之间的平衡。
戴金权对于“未来 AI 大模型技术创新及发展潜力”有许多值得行业从业者咂摸的观点:“大模型给了我们一个启示,大模型技术的前提不只是计算,而是训练本身,比如三阶段的训练,举个例子——很多大模型“诗写的好”,但是“写代码”不行,然后你就会发现它一般都会再发一个相应的“code 大模型”;而“什么都行”的大模型可能写代码就没有“code 大模型”写的好。其实本质上它是一个多任务或多目标的学习,所以是不是有办法来提升通用大模型的单项能力,这是一个很有意思的探索方向。但不管算力也好、成本也好、效率也好,怎么样利用是需要大家共同去探索的问题。比如大模型有很多不同的部署的场景,预训练、微调、推理、嵌入到工作流里去等等。如何通过硬件的 XPU 不同计算平台、软件上的各种技术能力来提高它的部署效率,这是另一个需要各厂商要去探索的问题。”
从戴金权的观点出发,并基于笔者对于行业的观察,我们基本上是可以总结出大模型当前的部署现状的:
模型部署难度较高:随着模型规模的不断扩大,需要消耗的计算资源、存储资源、网络资源等也越来越多,部署难度逐渐增大。
对硬件资源需求大:大模型需要大量的 GPU 内存来进行计算,需要高性能的服务器来存储和传输数据,对硬件资源的需求非常大。
需要支持并发处理:为了提高模型推理速度和效率,需要支持并发处理,这对服务器的并发处理能力提出了更高的要求。
从部署问题上,英特尔的合作伙伴腾讯云的解决方案就非常值得借鉴,在易用性方面,腾讯云训练集群的开启涉及复杂的系统设计,如 HCC 集群和分布式计算网络互通,并在实例设计时呈现给 AI 开发者一键部署功能,实现工程化效率提升;此外在供训练过程中,HCC 还具有高稳性能和故障自愈能力。从成本方面,腾讯云通过资源调度(如潮汐算力)实现集群效率最高。例如,在训练过程中,可能不会对加速芯片本身进行调度,而是将数据预处理或 DLC 业务与逻辑计算单元混部,以提高算力集群利用率。在部署效率方面,AI 开发者常遇到驱动版本不一致、兼容性等问题。腾讯云致力于在云原生环境中为大家提供更多一键部署和开发工具链,以缩短开发时间并提高效率。”
当然了,为了解决大模型的部署问题,英特尔确实没有少做努力。比如专为大模型时代发展而生的 Gaudi® 2 在第一代基础上做了许多升级,第二代 Gaudi AI 深度学习夹层卡 HL-225B 专为数据中心实现大规模横向扩展而设计。其 AI 处理器基于第一代 Gaudi 的高效架构打造而成,目前采用 7 纳米制程工艺,在性能、可扩展性和能效方面均实现了飞跃,是一个“名副其实”的用于生成式 AI 和 LLM 训练的功能强大且经济高效的深度学习解决方案。
尤其值得说的是,在扩展性方面,Gaudi2 处理器具备出色的 2.1 Tbps 网络容量可扩展性,原生集成 21 个 100 Gbps RoCE v2 RDMA 端口,可通过直接路由实现 Guadi 处理器间通信。Gaudi2 处理器集成了专用媒体处理器,用于图像和视频解码及预处理。此外,Gaudi2 深度学习夹层卡还符合 OCP OAM 1.1(开放计算平台之开放加速器模块)等多种规范,可以为企业业务带来系统设计的灵活性。
在 2023 英特尔 On 技术创新峰会上,英特尔介绍的一台大型 AI 超级计算机,便是完全采用了英特尔至强处理器和 4000 个英特尔 Gaudi2 加速器打造的,据说它将跻身全球 TOP15 超算,目前热门 AIGC 应用 Stable Diffusion 的开发商 Stability AI 已经在全面使用它。同时英特尔首席执行官帕特·基辛格在本次峰会上还向大家透露了 Gaudi 3 的推出进程,“采用 5nm 制程的 Gaudi 3 将于明年推出,其算力是 Gaudi 2 的两倍,网络带宽、HBM 容量是 Gaudi 2 的 1.5 倍。”这意味着,大模型的部署效率问题可能在明年将实现一个飞跃式发展。
事实上,除了 Gaudi 2,为了更好地完成大模型的部署,英特尔® 至强® 可扩展处理器也一直在升级迭代,其无处不在的计算解决方案,配备英特尔® AMX 和其他集成式 AI 加速器,可在数据中心或边缘应用运行实时、中等吞吐量、低延迟的模型及应用。像阿里云通义千问大模型便是内置 AI 加速器的第四代英特尔至强可扩展处理器用于其生成式 AI 和大语言模型,英特尔技术大幅缩短了该模型的响应时间,平均加速可达 3 倍。
基辛格表示,第五代英特尔® 至强® 可扩展处理器未来将在同样功耗下,将有效提升数据中心的性能和存储速度,相比于第四代,该处理器在 AI 方面的性能将提升 2-3 倍。据悉,该处理器将于 12 月 14 日发布,非常值得大家密切关注。
今年 8 月底,首批通过备案的人工智能大模型名单出炉,这意味着这些生成式 AI 产品可以正式面向公众开放注册、提供服务。那在发布前后,大模型应用技术的开发速度或者供应商方面的技术演进上有何变化?对于该问题,戴金权表示——“如何更好地保护模型、保护数据、保护业务问题等安全问题变得越来越重要。”
所有技术在经历了爆火和高速发展的过程后,最终都会落到“安全”问题上,所以大模型也不例外。伴随着 AI 大模型的复杂性和应用范围将进一步扩大,其安全隐患将越来越多。例如,随着量子计算等新技术的出现,AI 大模型将面临更高级别的安全威胁。同时,随着数据隐私保护等法律法规的出台,企业当前越来越重视 AI 大模型的数据隐私保护工作。因此,未来需要加强技术研发,完善 AI 大模型的安全保障机制。
当前 AI 大模型安全现状并不乐观,技术漏洞是当前 AI 大模型面临的主要安全问题之一。例如,模型被黑客攻击、恶意注入病毒等问题时有发生。代码实现不当也可能导致 AI 大模型出现安全问题,比如有些模型在实现过程中可能存在未经验证的功能或逻辑漏洞,给恶意攻击者留下可乘之机。
我们溯源一下问题根本,数据质量差是影响 AI 大模型安全的重要因素之一。例如,如果数据本身存在大量噪声或缺失,将直接影响模型的训练效果和安全性。为了保护、清洗这些数据,英特尔在机密计算领域投入大量研发资源,在 2015 年推出了英特尔® SGX,其是一种安全相关的指令,被内置于一些现代 Intel 中央处理器(CPU)中,它可以在基于硬件的可信执行环境中执行计算,确保任务和数据的安全性,防止被恶意程序窃取。在管理敏感数据和受监管数据方面,机密计算技术可以提高相关组织的安全级别。
此外,英特尔® TDX 是另一项前沿安全技术,其在虚拟机层面支持机密计算,满足虚拟机安全需求。所以英特尔的“机密计算”也被戴金权称为是一个“端到端”的能力,“大模型安全并不是只需要在一个环节安全,整个流程都需要安全,而英特尔的机密计算从数据存储、加密、整个分布式计算、网络通讯,包括远程验证等都完成了实现了安全保护。”目前英特尔作为“机密计算联盟(Confidential Computing Consortium)”成员之一,正在持续积极推动机密计算技术的标准化和普及。
随着大模型技术逐渐进入深水期,各企业在相关技术方面的验证逐渐全面,大家都已经非常明确,如果想要充分释放 AI 大模型的潜力,仅依靠软件层面的优化是不够的,基础设施硬件设备的性能和稳定性也在 AI 大模型的高效运行中扮演着至关重要的角色。
当前大模型对基础设施的要求非常高。就单从硬件方面来看,大模型需要大量的高性能计算资源,包括 CPU、GPU 和 TPU 等。这些计算资源需要具备高并发、低延迟的特点,以满足 AI 大模型的计算需求。同时,为了提高计算效率,需要采用先进的芯片设计和制造技术,加强芯片间的通信和协作。
为了满足大模型对硬件性能的高要求,硬件厂商需要不断提升自身的研发实力和技术积累。这包括对先进制程技术的掌握,以及对各种处理器架构的深入理解。此外,硬件厂商还需要与软件厂商紧密合作,共同优化大模型的性能。通过软硬件的协同创新,可以充分发挥硬件设备的性能潜力,为大模型的发展提供强大的支持,无论是从算力、效率、成本还是安全等各个方面。
于此,大模型对硬件厂商的技术能力也提出了更高的要求。这意味着硬件厂商需要具备跨学科的能力,以整合不同领域的技术资源,为企业提供更加完善的解决方案,以满足不同行业和应用场景的需求。
不仅是硬件厂商,大模型技术的发展离不开产业链上的每一个角色,众人拾柴才能火焰高,大模型时代需要学术界和产业界进行深入地合作和联动。通过联动,学术界的研究成果可以更快地应用于产业界,推动技术的发展和进步,同时产业界的需求和反馈也可以引导学术界的研究方向,使其更加贴近实际应用场景。在当前这个大模型时代的背景下,合作和联动可以促进不同组织之间的协作,实现资源的共享和整合,提高研究的效率和成果的质量。
正如戴金权所说的那样,“英特尔一直坚持开源开放,无论是从客户侧的产业界合作,还是从学术界的高校合作,英特尔都在持续推动,相信在多方的努力下,大模型技术的发展将会越来越好。”
毋庸置疑,业务上云是当下所有企业以及开发者关注的核心问题,但在上云和使用云的过程中,无疑会遇到技术选型、成本、管理等挑战。目前,滴滴在业务上云的过程中已经积累了较多的实践经验与思考。10 月 17 日 19:30-21:00,将有两位来自滴滴的技术专家做客 InfoQ 视频号,为大家揭秘滴滴上云的思考演进及重点实践,欢迎点击【阅读原文】或扫描二维码预约直播👇
读者福利
微信扫码关注该文公众号作者