Redian新闻
>
AI在用| 没错,树莓派5也能飙上Llama 3了!

AI在用| 没错,树莓派5也能飙上Llama 3了!

科技

机器之能报道

编辑: 山茶花

以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。


因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。   


我们也欢迎读者投稿亲自实践的创新型用例。

4 月 18 日,Meta 发布了 Llama 3,号称「迄今最强的开源大模型」。根据 Meta 的说法,Llama 3 在多个关键基准测试中超越了业界领先的同类模型,在代码生成等任务上实现了全面领先。该模型能够进行复杂的推理,更加遵循指令,能够可视化想法并解决许多微妙的问题。
开源 Llama 3 系列模型包括 8B(80 亿参数)和 70B(700 亿参数)两种参数规模的版本。作为开源界的「全村希望」,Llama 3 一经发布就吸引不少网友参与「试驾」活动。今天,我们介绍其中一个令人印象深刻的应用 —— 在不到 100 美元的树莓派 5 上跑  Llama 3  8B!
树莓派系列是全球最为知名的袖珍型小巧却又性能强大的迷你电脑,5 代版本配置更强还有新定制的芯片。X 网友 @adamcohenhillel 发现, Llama3 8B 能在树莓派 5 以每秒 1.89 个 token 的速度运行,非常疯狂!支持 8K 上下文窗口。

让 Llama3 向世界打个招呼,Llama3 很快响应:「HEY WORLD!How’s everyone doing today?」,仅用 11.6 秒。对于在树莓派这样的设备上运行大模型来说,这个响应速度已经很不错了,可以满足一些实时应用需求。

  • 案例地址:

https://twitter.com/adamcohenhillel/status/1781490719997526210

如何在树莓派 5 上跑出 Llama 3  8B,@adamcohenhillel 并未给出详细步骤,但他推荐了在树莓派 5 上运行 Mistral 7B 的操作指南,可以如法炮制。

值得注意的是,由于移动设备、嵌入式系统或边缘计算设备的硬件资源有限,4bit 量化可以显著减少模型的大小和计算需求,使得在这些设备上运行大型模型成为可能。这位用户也使用了 4bit 量化推理 Llama3 8B。

以下就是如何在树莓派 5 上运行大语言模型 Mistral 7B 操作指南。

首先请确保你有一台树莓派 5,配备至少 8GB 内存,准备一个 32GB 的 SD 卡。接下来,我们需要给硬件安装操作系统。从官网下载 Raspberry Pi OS,运行后你会看到如下画面:

请选择设备 Raspberry Pi 5、选择最新操作系统镜像(推荐 64 位版本)、选择存储为插入的 SD 卡。点击「next」,系统问你是否要编辑设置,请点击「编辑设置」:

配置设定上,启用主机名并设置为 raspberrypi.local;设置一个你将记住的用户名和密码,稍后会用到;启用 配置无线局域网并添加你的 Wi-Fi 名称和密码;保存设置并继续,等待操作系统写入 SD 卡:

将 SD 卡插入树莓派,并连接电源。使用 SSH ( Secure Shell ) 协议远程连接并登录到树莓派设备:

ssh ssh <YOUR_USERNAME>@raspberrypi.local

好了,在树莓派上构建出适合运行大语言模型的环境后,接下来就该将大语言模型装进来啦!怎么装?作者提供了两个办法。

一个是用 Ollama 来运行大语言模型。Ollama 是一个开源工具,透过它提供简单的安装指令和命令行界面,在本地运行大语言模型会变得更加简单和快捷。

另一个就是用 llama.cpp 运行,它是一个用 C++ 编写的高效的推理工具,用于在 CPU 上运行 Meta AI 的 Llama。

先来看第一个办法。用 Ollama 运行大语言模型只需两步。

第一步:安装 Ollama,运行这个命令:

curl -fsSL https://ollama.com/install.sh | sh

这个命令会从 Ollama 的官网下载安装脚本并执行它,在树莓派上安装 Ollama。

第二步:下载并运行 Mistral 模型。使用命令 ollama run mistral 来下载并启动 Mistral 7B 模型。结束。

相比第一个办法,第二个办法 —— 使用 llama.cpp 来运行大语言模型——稍显复杂。

第一步:安装必要的软件包。打开命令行工具,输入以下命令更新软件包列表并安装一些必需的编程工具和库:

sudo apt update && sudo apt install git g++ wget build-essential

第二步:下载 llama.cpp。使用 Git 控制工具下载 llama.cpp 代码库,这个库是专门用来运行大型语言模型的。命令是:

git clone https://github.com/ggerganov/llama.cpp 
cd llama.cpp

从 GitHub 上克隆代码到本地并切换到下载的目录。

第三步:编译 llama.cpp。

输入 make -j  让 make 工具自动将源代码转换为可执行程序

第四步:找到并下载 Mistral 7B 模型。命令是:

cd models 

wgethttps://huggingface.co/TheBloke/Mistral-7B-v0.1-GGUF/resolve/main/mistral-7b-v0.1.Q4_K_S.gguf

第五步:回到代码库根目录并运行模型,现在可以让它回答「What’s up?」等问题啦。搞定,结束。

cd ..

./main -m models/mistral-7b-v0.1.Q4_K_S.gguf -p "Whatsup?" -n 400 -e

以后我们会通过新专栏带来更多 AIGC 案例演示,也欢迎大家留言评论并给出改进建议。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
毕业礼物是钻石?没错,每人两颗!没错,就是你们天天催的芒果。AI 在用 | 有了这个超级提示和Claude 3,不听播客也能搞定节目内容【首发】中景纬视获新一轮数千万元融资,树立眼健康消费领域创新标杆还在用 Xshell ?你 out 了!!维州遭恶劣天气袭击!狂风暴雨,树木倒塌,多辆汽车被淹没,居民出行需注意!盘点最喜欢招聘留学生的企业,薪资高福利好,带薪假期多,留学生投它准没错!刘强东没说错,王妈没错,兄弟们也没错,但......“打12345也没用”!知名5A景区“一条龙”宰客被曝光,168元套票利润近100元,死海鲜当活的卖,导游回扣可达50%澳洲的餐厅太多难选择!去戴“帽子”的餐厅准没错!狗引儿【长篇】(五)再读世界名著:简. 爱.嗯,没错!在客厅和主卧皆可俯瞰伦敦眼的房子只要£1730/周!带桑拿、浴室、蒸汽浴室、水疗中心、还拥有24小时礼宾服务...给家里人推荐 AI,首选豆包没错|AI 教程5天拿下的Tableau官方证书,挂上LinkedIn后,被面试官抢着要到底是啥屏幕,让新iPad价格飙上两万?宾州詹金斯植物园(Jenkins Arboretum),幽幽小景疯了!加币暴跌,温哥华房市狂飙上涨!这一切只是刚刚开始...全球销量6000万的开发板:“树莓派”上市了——曾坐马斯克的大火箭上太空还在用Xshell?你out了!!马斯克:聪明的人要多生育既是小风扇又是充电宝?出门带它准没错!哥大校长沙菲克就校园动荡发表讲话:超越分歧,重建信任,坚定决心,树立典范猿视角: 大哥出门半小时, 撞女友带男人回家睡觉, 女友质问"难道你没错"? 他狂扇耳光!几十块的墨镜,贴上LOGO卖到上千?今天工厂直供,重回两位数留学生注意!2024咨询公司目标院校名单曝光!MBB竟都爱密歇根大学!非藤校G5也有希望!树莓派冲刺IPO,估值35亿但年营收19亿,CEO:做一家有趣又赚钱的公司AI 在用 | 花半小时,你也能主演《龙猫》罚款没错,金额实在看不懂躺平没错,但我祝你不躺平母亲节礼物,选它准没错!超值优惠,赠品多多惊喜不断!我们就是黑手党,怎么着抛弃「穷鬼」的迪卡侬,盯上lululemon用户深入大牌代工厂:两位数的墨镜,贴上logo,售价翻几十倍年轻人若想着整顿职场,上了985也不会有好工作
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。