Redian新闻
>
Elon Musk买了10000个GPU,入局大模型

Elon Musk买了10000个GPU,入局大模型

公众号新闻

来源:内容由半导体行业观察(ID:icbank)编译自tomshardware,谢谢。


尽管提倡在整个行业范围内停止人工智能训练,但据报道,埃隆·马斯克 (Elon Musk)已经在 Twitter 内启动了一个重大的人工智能项目。据Business Insider报道,该公司已经购买了大约 10,000 个 GPU,并从 DeepMind 招募了 AI 人才,用于涉及大型语言模型 (LLM) 的项目 。


一位知情人士表示,马斯克的 AI 项目仍处于初始阶段。然而,根据另一个人的说法,获得大量额外的计算能力表明他致力于推进该项目。同时,生成人工智能的确切目的尚不清楚,但潜在的应用包括改进搜索功能或生成有针对性的广告内容。


目前,尚不清楚 Twitter 采购了哪些具体硬件。然而,据报道,尽管 Twitter 一直存在财务问题,但据报道 Twitter 在这些计算 GPU 上花费了数千万美元,马斯克将其描述为“不稳定的财务状况”。这些 GPU 预计将部署在 Twitter 剩余的两个数据中心之一,亚特兰大是最有可能的目的地。有趣的是,马斯克在 12 月下旬关闭了 Twitter 在萨克拉门托的主要数据中心,这显然降低了公司的计算能力。


除了为其生成式 AI 项目购买 GPU 硬件外,Twitter 还在招聘更多的工程师。今年早些时候,该公司从Alphabet 的子公司AI Research DeepMind招募了工程师 Igor Babuschkin 和 Manuel Kroiss。至少从 2 月开始,马斯克一直在积极寻找 AI 行业的人才,以与 OpenAI 的 ChatGPT 竞争。


OpenAI使用Nvidia 的 A100 GPU 来训练其 ChatGPT 机器人,并继续使用这些机器来运行它。到目前为止,Nvidia 已经推出了 A100 的后继产品,其H100计算 GPU 在大约相同的功率下速度快了几倍。Twitter 可能会在其 AI 项目中使用 Nvidia 的 Hopper H100 或类似硬件,尽管我们在此进行推测。考虑到该公司尚未确定其 AI 项目的用途,因此很难估计它可能需要多少个 Hopper GPU。


通常Twitter 这样的大公司购买硬件时,他们会以特价购买,因为他们采购了数千台。与此同时,如果单独从 CDW 等零售商处购买,Nvidia 的 H100 主板单价可能超过 10,000 美元,由此可以看出该公司可能为其 AI 计划在硬件上花费了多少。


ChatGPT迈向商用,GPU需求上看3万颗


ChatGPT近期掀起云端与AI产业话题,Microsoft、Google、百度等相继推出基于生成式AI衍生的产品服务,根据集邦(TrendForce)最新报告「从AIGC看云端AI应用趋势与挑战」,未来迈向商用将上看3万颗;在此热潮下, GPU及AI芯片相关供应链业者可望受惠。


不过,集邦指出,市场普及度和产品服务的功能优化仍待考验,且由于AI是以用户体验为核心,涉及个资及内容提供的正确性,因此下个发展阶段或将还会面临法规问题。


TrendForce表示,生成式AI是透过GAN、CLIP、Transformer、Diffusion等演算法、预训练模型、多模态等AI技术的整合,在既有数据或资料中寻找规律,并在资料汇整、社交互动、文案产出等领域带出高效的内容产出,以及与用户互动体验。现行市面上已有不少生成式AI之应用,较常见的产出类别包括文字、图像、音乐、编码等。


集邦表示,数据、算力、算法是深耕生成式AI不可或缺的三大关键,且产品服务易做但优化困难,因此,握有相关资源的云端大厂在发展上将更具优势。就厂商角度而言,由于ChatGPT等生成式AI聊天机器人不仅能与用户自然对话,「类理解需求」的能力使其针对各式咨询能进一步提供建议,加上使用搜寻引擎已相当普遍,因此透过强化搜寻引擎已是各云端大厂的首要任务。


据TrendForce调查,目前全球搜寻引擎市场以超过9成的Google引擎为首,Microsoft Bing仅占3%,短期间不致造成威胁,但随着用户扩大、数据回馈与模型优化的循环,是否会产生服务差异甚或抢占广告商机,也是Google不得不预防的潜在风险。


集邦表示,由于生成式AI必须投入巨量资料进行训练,为缩短训练就得采用大量高效能GPU。以ChatGPT背后的GPT模型为例,其训练参数从2018年约1.2亿个到2020年已暴增至近1,800亿个,估GPU需求量预估约2万颗,未来迈向商用将上看3万颗。


集邦表示,生成式AI发展将成为趋势,将带动GPU需求显著提升,连带使相关供应链受惠,其中最大受益者是GPU芯片龙头的英伟达(NVIDIA),旗下可达到5 PetaFLOPS运算效能的DGX A100,几乎是目前用于大规模资料分析、AI加速运算的首选;此外,尚有推出MI100、MI200、MI300系列芯片的超微(AMD)。


👇👇 点击文末【阅读原文】,可查看原文链接!


*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。


今天是《半导体行业观察》为您分享的第3369内容,欢迎关注。

推荐阅读


揭开CXL内存的神秘面纱

从Google TPU v4看AI芯片的未来

越来越重要的SerDes


半导体行业观察

半导体第一垂直媒体

实时 专业 原创 深度


识别二维码,回复下方关键词,阅读更多

晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装

回复 投稿,看《如何成为“半导体行业观察”的一员 》

回复 搜索,还能轻松找到其他你感兴趣的文章!

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl向花旗致敬ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!Meta连夜加入AI大模型混战!用1/10参数量干过GPT-3,单个GPU就能跑李开复「关门弟子」创业!AI自动化助手一站式搞定,入局大模型的另一种选择神仙老板!Elon Musk 为员工打造世外桃源,位于奥斯汀东南处!中国足协:30个正处,90个副处,300个正科,1000个副科Elon Musk 挤下 LVMH 总裁 Bernard Arnault 重新登上世界首富之位闲话人生(231)每逢佳节倍思亲,养儿方知父母恩英伟达发布ChatGPT专用GPU,计算光刻提速40倍!AI的决定性时刻来了英伟达发布ChatGPT专用GPU,性能提升10倍,还推出云服务,普通企业也能训练LLM关于日本在二战中军人死亡的详细分布Elon Musk:远程工作是一个“道德”问题大模型落地:GPU向上,NPU向下Elon Musk成立了名为X.AI的新人工智能公司Elon Musk warns AI is one of the biggest risks to civilizationMUMU火锅落地旧金山SFSU,竟然还能免费吃和牛?埃隆-马斯克警告说房价将暴跌--商业地产正处于崩溃状态 (TESLA-Elon Musk)在美国哪儿退休最好小红书布局大模型:多媒体算法负责人牵头、上线AI绘画应用|Long China 50独家ChatGPT平替「小羊驼」Mac可跑!2行代码单GPU,UC伯克利再发70亿参数开源模型中足协有30个正处,90个副处,300个正科,1000个副科…呼吁暂停AI研究?马斯克转身大手笔购进1万个GPU,真实意图遭曝光!多次痛斥OpenAI,背后竟藏着一段爱恨情仇……英伟达市值超万亿美元 刚推出含256个GPU的AI超级计算机黄仁勋发布全新GPU,专为大模型打造,微软谷歌Meta排队预定|GGView西雅图周末不无聊|Mussel festival来啦!这个周末Mussel吃到爽!阿凡达时代要来了?Elon Musk 的 Neuralink 表示它已获得 FDA 批准进行人体试验英伟达H100市面价格飙升!Elon Musk:每个人都在买GPUGPU非常紧缺,Elon Musk发声:英伟达不会永远垄断秦制沙俄 信仰的颠覆(七十六)GPT-3计划开源!Sam Altman自曝急缺GPU,GPT-4多模态能力明年开放柏林工大也有自己的Döner店了!Elon Musk 等上千名科技专家共同签署「暂缓 AI 开发」公开信件《阿凡达2:水之道》明天网播上线 全网预约已突破290万单个GPU就能跑!UC伯克利领头,130亿参数「小羊驼」权重公布GPT-3 计划开源!Sam Altman 自曝急缺 GPU,GPT-4 多模态能力明年开放
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。