Redian新闻
>
你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测

你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测

公众号新闻
机器之心报道
编辑:陈萍
你的 GPU 内存够用吗?这有一个项目,可以提前帮你查看。


在算力为王的时代,你的 GPU 可以顺畅的运行大模型(LLM)吗?


对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列长度为 1000,需要 1GB 的额外内存。不仅如此,模型在训练期间,KV 缓存、激活和量化都会占用大量内存。


我们不禁要问,能不能提前了解上述内存的占用情况。近几日,GitHub 上新出现了一个项目,可以帮你计算在训练或推理 LLM 的过程中需要多少 GPU 内存,不仅如此,借助该项目,你还能知道详细的内存分布情况、评估采用什么的量化方法、处理的最大上下文长度等问题,从而帮助用户选择适合自己的 GPU 配置。



项目地址:https://github.com/RahulSChand/gpu_poor


不仅如此,这个项目还是可交互的,如下所示,它能计算出运行 LLM 所需的 GPU 内存,简单的就像填空题一样,用户只需输入一些必要的参数,最后点击一下蓝色的按钮,答案就出来了。



交互地址:https://rahulschand.github.io/gpu_poor/


最终的输出形式是这样子的:


{  "Total": 4000,  "KV Cache": 1000,  "Model Size": 2000,  "Activation Memory": 500,  "Grad & Optimizer memory": 0,  "cuda + other overhead":  500}

至于为什么要做这个项目,作者 Rahul Shiv Chand 表示,有以下原因:


  • 在 GPU 上运行 LLM 时,应该采用什么的量化方法来适应模型;

  • GPU 可以处理的最大上下文长度是多少;

  • 什么样的微调方法比较适合自己?Full? LoRA? 还是 QLoRA?

  • 微调期间,可以使用的最大 batch 是多少;

  • 到底是哪项任务在消耗 GPU 内存,该如何调整,从而让 LLM 适应 GPU。


那么,我们该如何使用呢?


首先是对模型名称、ID 以及模型尺寸的处理。你可以输入 Huggingface 上的模型 ID(例如 meta-llama/Llama-2-7b)。目前,该项目已经硬编码并保存了 Huggingface 上下载次数最多的 top 3000 LLM 的模型配置。


如果你使用自定义模型或 Hugginface ID 不可用,这时你需要上传 json 配置(参考项目示例)或仅输入模型大小(例如 llama-2-7b 为 70 亿)就可以了。


接着是量化,目前该项目支持 bitsandbytes (bnb) int8/int4 以及 GGML(QK_8、QK_6、QK_5、QK_4、QK_2)。后者仅用于推理,而 bnb int8/int4 可用于训练和推理。


最后是推理和训练,在推理过程中,使用 HuggingFace 实现或用 vLLM、GGML 方法找到用于推理的 vRAM;在训练过程中,找到 vRAM 进行全模型微调或使用 LoRA(目前项目已经为 LoRA 配置硬编码 r=8)、QLoRA 进行微调。


不过,项目作者表示,最终结果可能会有所不同,具体取决于用户模型、输入的数据、CUDA 版本以及量化工具等。实验中,作者试着把这些因素都考虑在内,并确保最终结果在 500MB 以内。下表是作者交叉检查了网站提供的 3b、7b 和 13b 模型占用内存与作者在 RTX 4090 和 2060 GPU 上获得的内存比较结果。所有值均在 500MB 以内。



感兴趣的读者可以亲自体验一下,假如给定的结果不准确,项目作者表示,会对项目进行及时优化,完善项目。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
金融文本情感分析,有了ChatGPT,还需要其他模型吗?普里戈津死于飞机坠落和防空导弹简介为什么好好的一个开源项目,商业化却往往扑街?小米一开源项目被批“三无”,项目导师回应;Ruby on Rails之父将TypeScript从Turbo框架中移除 | Q资讯5143 血壮山河之武汉会战 崩溃 3人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源那些被原生家庭伤害过的女孩,现在还好吗?| 测一测原生家庭带给你怎样的伤痛iPhone 12辐射超标,苹果公司:按法国的要求,我们改!那中国呢?专业人士:也该测一测选择GPT-3.5、还是微调Llama 2等开源模型?综合比较后答案有了国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70BGPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?电信巨头被曝计划耗资33亿裁员5000人;科大讯飞刘庆峰:华为GPU能力可对标英伟达A100;中国恒大今日复牌丨雷峰早报全球首个开源多模态医疗基础模型:人工打分平均超越GPT-4V、支持2D/3D放射影像一次通过率73%,开源代码大模型WizardCoder超越最新GPT-4以外所有闭/开源模型【测一测】最适合你的心理学项目从kkFileView项目出发,聊聊怎么做开源项目昆仑万维开源130亿参数大模型!0门槛商用、多榜超Llama 2,预训练数据也开源UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源中国旅游团复苏经济无题谷歌云AIGC火力全开!推出新AI芯片TPU v5e,企业AI服务30美元/月,接入Llama 2等大模型720亿参数大模型都拿来开源了!通义千问开源全家桶,最小18亿模型端侧都能跑苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大《心儿跟着你飞啦》&《赐伤》李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型学生时代你是老师眼中的好学生吗?快来测一测测一测你有哪种俘获人心的黑暗魅力免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型小米一开源项目被批“三无”,项目导师回应上海交大梁晓峣:疯狂的大模型时代,开源GPGPU平台为国产AI芯片企业谋出路丨GACS 2023直追GPT-4!李开复Yi-34B新成绩公布:94.08%的胜率超越LLaMA2等主流大模型最好7B模型再易主!打败700亿LLaMA2,苹果电脑就能跑|开源免费阿里云中标9亿AI算力大单;浙大校友开源LLaVA-1.5多模态大模型;Meta因开源模型遭抗议丨AIGC大事日报
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。