谷歌火力全开!新一代芯片TPU v5e炸场,大模型训练飙升5倍,成本砍半
新智元报道
新智元报道
【新智元导读】谷歌2023大会,宣布了20多款产品更新。TPU v5e芯片大升级,让大模型训练和推理性能翻倍,还集成了深度学习主流框架。
谷歌云大会上,再次投注了生成式AI。
当地时间29日,谷歌举办了Google Cloud Next 2023大会,宣布了20多款从产品更新。
继昨天Semianalysis爆料谷歌GPU算力至强后,谷歌发布了一款全新AI芯片Cloud TPU v5e,专为大模型训练推理所设计。同时,还推出了配备英伟达H100 GPU的A3虚拟机。
在面向开发者平台Vertex AI中,谷歌发布了全球首个能够识别水印的工具𝗦𝘆𝗻𝘁𝗵𝗜𝗗、以及接入Llama 2、Claude 2大模型接入平台。
此外,人工智能助理Duet AI也完成了在办公全家桶Workspace的更新。
这场人工智能大战,谷歌全力点火,试图通过不断创新给予微软致命的一击。
谷歌也不甘示弱,在昨晚披露了公司新一代的AI芯片:Cloud TPU v5e。
Cloud TPU v5e专为提供大中型训练与推理所需的成本效益和性能而设计。
与Cloud TPU v4相比,TPU v5e可为大语言模型和生成式AI模型提供每美元花费中高达2倍的训练性能和2.5倍的推理性能。
Cloud TPU v5e的成本不到TPU v4的一半,但可以让更多企业训练和部署更大、更复杂的AI模型。
TPU v5e Pods能够平衡性能、灵活性和效率,允许多达256个芯片互连,聚合带宽超过400 Tb/s和100 petaOps的INT8性能。
并且支持八种不同的虚拟机(VM)配置,单片内的芯片数量从一个到250多个不等。
用户可以根据自身的需求选择合适的配置,Cloud TPU v5e可以为各种大语言模型和生成式AI模型提供服务。
根据速度基准测试,在Cloud TPU v5e上训练和运行人工智能模型的速度提高了5倍。
同时,推理指标的规模有了巨大提升:在一秒钟内,能实时处理1000秒的内部语音到文本和情感预测模型,比之前提升了6倍。
Cloud TPU v5e:易于使用、多功能且可扩展
谷歌在GKE中全面推出了云 TPU,这是当今业内最具可扩展性的领先 Kubernetes 服务。
用户可以利用GKE在云TPU v5e和云TPU v4上管理大规模AI工作负载编排,从而提高 AI 开发效率。
对于喜欢托管服务简单性的企业,Vertex AI也支持使用云TPU VM使用各种框架和库进行训练。
Cloud TPU v5e还为领先的AI框架(如 JAX、PyTorch 和 TensorFlow)提供内置支持。也包括流行的开源工具,如Hugging Face的Transformers and Accelerate、PyTorch Lightning和Ray等。
同时,谷歌宣布将在预览版中引入Multislice技术,该技术允许用户轻松地将 AI 模型扩展到物理 TPU Pod 边界之外——多达数万个 Cloud TPU v5e 或 TPU v4 芯片。
通过Cloud TPU v5e,用户能够更轻松地扩展自己的训练作业。
它可以训练和部署机器学习模型和AI应用,并自定义大语言模型 (LLM),从而在AI驱动的应用中。
Vertex AI结合了数据工程、数据科学和机器学习等工作流,能够让团队使用通用工具集进行协作,并通过Google Cloud的优势扩缩应用。
并提供AutoML、自定义训练、模型发现、生成式AI等选项,通过端到端MLOps工具实现自动化部署和扩展。支持多种界面,包括SDK、控制台、命令行和Terraform。
对于希望快速开始常见生成式人工智能(AI)用途(例如聊天机器人和定制搜索引擎)的开发人员,Vertex AI搜索和对话可以帮助没有任何AI经验的人快速上手开发,甚至在许多情况下,都无需编写任何代码。
面对如此强劲的用户需求,谷歌也在默默发力。在8月30日的Google Cloud Next大会上,谷歌发布了一系列扩展功能:
扩展模型生态系统。
在拥有超过100个大模型的Vertex AI「模型花园」中新增了来自Meta的Llama 2和Code Llama以及技术创新研究所(TII)的Falcon LLM。还有即将加入的Anthropic的Claude 2。Model Garden的多样性使企业能够将模型与其需求相匹配,为用户提供更多的选择。
调整升级谷歌自己的模型:PaLM 2、Codey和Imagen。
PaLM可支持38种语言、3.2万个token上下文窗口,Codey的代码生成质量提到了25%;Imagen改进了视觉吸引力,最近还添加了图像编辑、字幕以及视觉问题和答案等功能。
发布了全球首个水印识别工具SynthID,验证Imagen生成的图像。
利用扩展功能连接真实世界的数据并驱动真实世界的行动。VertexAI扩展是一组完全托管的扩展开发人员工具,可将模型到API以实现实时数据和实际操作。
全球首个水印识别工具:𝗦𝘆𝗻𝘁𝗵𝗜𝗗
在生成式AI爆发的浪潮中,识别AI生成的内容成为我们现在亟需解决的难关。
一方面,在大模型的训练中使用AI生成的内容会导致模型崩溃。另一方面,AI生成的假信息也大大扰乱了互联网中的信息生态。
之前的研究中,有人提出了为AI生成的内容添加水印,但在后续的实践中发现添加水印会干扰模型的内容生成。
SynthID的发布,预示解决识别AI生成内容的这一难题将会被解决。
SynthID的首次亮相是在开发者平台Vertex AI中。
Vertex AI与Google DeepMind合作,推出了SynthID。它能够为Imagen生成的图像加上数字水印,并且识别AI生成的图像。
SynthID可以帮助评估图像由Imagen创建的可能性
SynthID使用两个深度学习模型,分别用于水印和识别。
它们可以在一组不同的图像上一起训练。组合模型针对一系列目标进行了优化,包括正确识别带水印的内容,并通过直观地将水印与原始内容对齐来提高水印的隐蔽性。
SynthID生成的数字水印是直接嵌入到图像的像素中的,人眼无法察觉。但SynthID可以检测并识别它们。
SynthID生成的水印即使在添加滤镜、更改颜色和使用各种有损压缩方案(最常用于JPEG)进行保存等修改后,也能够被识别出来,并且不会影响图像质量。
即使在添加滤镜、更改颜色和亮度等修改后,水印也可以检测到
元数据是最广泛使用的内容识别方法之一。它提供了创建者和创建时间等信息,这些信息与图像文件一起存储。
添加到元数据中的数字签名可以显示图像是否被更改过。当元数据信息完好无损时,用户可以很容易地识别图像。
然而,元数据可能会被手动删除,甚至在文件编辑时丢失。
但是,SynthID生成的水印嵌入了图像的像素,因此它与其他基于元数据的图像识别方法兼容,即使元数据丢失也能被检测到。
SynthID还提供了三个置信度,用于解释水印识别结果。
如果检测到数字水印,说明部分图像可能是由Imagen生成的。
但就像OpenAI发布ChatGPT后,谷歌的产品发布总是慢了一步,像这次的AI芯片发布也被IBM抢了风头。
但谷歌依旧拥有无可比拟的优势:开发者平台Vertex AI。
谷歌有意将Vertex AI打造成一个巨大的AI开发生态圈,软件硬件全都做到现有的顶配,并提供开发AI的一站式服务。
如果说英伟达是AI淘金热里那个因为买铲子而暴富的精明商人,那么谷歌这次是决心把自己打造成生成式AI的大平台。
一波一波的淘金者们来来往往,商人也可能因为时运不济而倒下,但平台会与AI行业的命运紧紧相连。
或许,这才是谷歌默默耕耘的最终目标。
https://cloud.google.com/blog/products/ai-machine-learning/vertex-ai-next-2023-announcements
微信扫码关注该文公众号作者