Redian新闻
>
“大模型本质就是两个文件!”特斯拉前AI总监爆火LLM科普,时长1小时,面向普通大众

“大模型本质就是两个文件!”特斯拉前AI总监爆火LLM科普,时长1小时,面向普通大众

公众号新闻
丰色 克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

特斯拉前AI总监Andrej Karpathy的新教程火了。

这次,他专门面向普通大众做了一个关于大语言模型的科普视频。

时长1小时,全部为“非技术介绍”,涵盖模型推理、训练、微调和新兴大模型操作系统以及安全挑战,涉及的知识全部截止到本月(非常新)

视频封面图是Andrej用Dall·3画的

视频上线油管仅1天,就已经有20万播放量。

有网友表示:

我刚看了10分钟就已经学到了很多东西,我以前从未用过视频中讲的这样的例子来解释LLM,它还弄清了我以前看到过的很多“混乱”的概念。

在一水儿的夸课程质量高之外,还有相当多的人评价Andrej本人真的非常擅长简化复杂的问题,教学风格也总是让人印象深刻。

不止如此,这个视频还可以说是体现了他对本职专业满满的热爱。

这不,据Andrej本人透露,视频是他在感恩节假期录的,背景就是他的度假酒店(手动狗头)

做这个视频的初衷呢,也是因为他最近在人工智能安全峰会上做了个演讲,演讲内容没有录像,但有很多观众都表示喜欢其内容。

于是他就干脆直接进行了一些微调,再讲一遍做成视频给更多人观看。

那么,具体都有些啥——

咱们一一给大伙呈上。

Part 1: 大模型本质就是两个文件

第一部分主要是对大模型整体概念的一些解释。

首先,大模型是什么?

Andrej的解释非常有趣,本质就是两个文件:

一个是参数文件,一个是包含运行这些参数的代码文件。

前者是组成整个神经网络的权重,后者是用来运行这个神经网络的代码,可以是C或者其他任何编程语言写的。

有了这俩文件,再来一台笔记本,我们就不需任何互联网连接和其他东西就可以与它(大模型)进行交流了,比如让它写首诗,它就开始为你生成文本。

那么接下来的问题就是:参数从哪里来?

这就引到了模型训练。

本质上来说,大模型训练就是对互联网数据进行有损压缩(大约10TB文本),需要一个巨大的GPU集群来完成。

以700亿参数的羊驼2为例,就需要6000块GPU,然后花上12天得到一个大约140GB的“压缩文件”,整个过程耗费大约200万美元。

而有了“压缩文件”,模型就等于靠这些数据对世界形成了理解。

那它就可以工作了。

简单来说,大模型的工作原理就是依靠包含压缩数据的神经网络对所给序列中的下一个单词进行预测。

比如我们将“cat sat on a”输入进去后,可以想象是分散在整个网络中的十亿、上百亿参数依靠神经元相互连接,顺着这种连接就找到了下一个连接的词,然后给出概率,比如“mat(97%)”,就形成了“猫坐在垫子上(cat sat on a mat)”的完整句子(神经网络的每一部分具体如何工作目前还不清楚)

需要注意的是,由于前面提到训练是一种有损压缩,神经网络给出的东西是不能保证100%准确的。

Andrej管大模型推理为“做梦”,它有时可能只是简单模仿它学到的内容,然后给出一个大方向看起来对的东西。

这其实就是幻觉。所以大家一定要小心它给出的答案,尤其是数学和代码相关的输出。

接下来,由于我们需要大模型成为一个真正有用的助手,就需要进行第二遍训练,也就是微调。

微调强调质量大于数量,不再需要一开始用到的TB级单位数据,而是靠人工精心挑选和标记的对话来投喂。

不过在此,Andrej认为,微调不能解决大模型的幻觉问题。

本节最后,是Andrej总结的“如何训练你自己的ChatGPT”流程:
第一步称为预训练,你要做的是:

1、下载10TB互联网文本;
2、搞来6000块GPU;
3、将文本压缩到神经网络中,付费200万美元,等待约12天;
4、获得基础模型。

第二步是微调:

1、撰写标注说明;
2、雇人(或用scale.ai),收集10万份高质量对话或其他内容;
3、在这些数据上微调,等待约1天;
4、得到一个可以充当得力助手的模型;
5、进行大量评估。
6、部署。
7、监控并收集模型的不当输出,回到步骤1再来一遍。

其中预训练基本是每年进行一次,而微调可以为频率进行。

以上内容都可以说是非常小白友好。

Part 2: 大模型将成为新“操作系统”

在这一部分中,Karpathy为我们介绍了大模型的几个发展趋势。

首先是学会使用工具——实际上这也是人类智能的一种表现。

Karpathy以ChatGPT几个功能进行了举例,比如通过联网搜索,他让ChatGPT收集了一些数据。

这里联网本身就是一次工具调用,而接下来还要对这些数据进行处理。

这就难免会涉及到计算,而这是大模型所不擅长的,但通过(代码解释器)调用计算器,就绕开了大模型的这个不足。

在此基础上,ChatGPT还可以把这些数据绘制成图像并进行拟合,添加趋势线以及预测未来的数值。

利用这些工具和自身的语言能力,ChatGPT已经成为了强大的综合性助手,而DALL·E的集成又让它的能力再上一个台阶。

另一项趋势,是从单纯的文本模型到多模态的演变。

现在ChatGPT不只会处理文本,还会看、听、说,比如OpenAI总裁Brockman曾经展示了GPT-4利用一个铅笔勾勒的草图生成了一个网站的过程。

而在APP端,ChatGPT已经可以流畅地和人类进行语音对话。

除了功能上的演进,大模型在思考方式上也要做出改变——从“系统1”到“系统2”的改变

这是2002年诺贝尔经济学奖得主丹尼尔·卡尼曼的畅销书《思考,快与慢》中提到的一组心理学概念。

简单来说,系统1是快速产生的直觉,而系统2则是缓慢进行的理性思考。

比如,当被问及2+2是几的时候,我们会脱口而出是4,其实这种情况下我们很少真正地去“算”,而是靠直觉,也就是系统1给出答案。

但如果要问17×24是多少,恐怕就要真的算一下了,这时发挥主导作用的就变成了系统2。

而目前的大模型处理文本采用的都是系统1,靠的是对输入序列中每个词的“直觉”,按顺序采样并预测下一个token。

另一个发展的关键点是模型的自我提升

以DeepMind开发的AlphaGo为例(虽然它不是LLM),它主要有两个阶段,第一阶段是模仿人类玩家,但靠着这种方式无法超越人类。

但第二阶段,AlphaGo不再以人类作为学习目标——目的是为了赢得比赛而不是更像人类。

所以研究人员设置了奖励函数,告诉AlphaGo它的表现如何,剩下的就靠它自己体会,而最终AlphaGo战胜了人类。

而对于大模型的发展,这也是值得借鉴的路径,但目前的难点在于,针对“第二阶段”,还缺乏完善的评估标准或奖励函数。

此外,大模型正朝着定制化的方向发展,允许用户将它们定制,用于以特定“身份”完成特定的任务。

此次OpenAI推出的GPTs就是大模型定制化的代表性产品。

而在Karpathy看来,大模型在将来会成为一种新型的操作系统

类比传统的操作系统,在“大模型系统”中,LLM作为核心,就像CPU一样,其中包括了管理其他“软硬件”工具的接口。

而内存、硬盘等模块,则分别对应大模型的窗口、嵌入。

代码解释器、多模态、浏览器则是运行在这个系统上的应用程序,由大模型进行统筹调用,从而解决用户提出的需求。

Part 3: 大模型安全像“猫鼠游戏”

演讲的最后一部分,Karpathy谈论了大模型的安全问题。

他介绍了一些典型的越狱方式,尽管这些方式现在已经基本失效,但Karpathy认为,大模型的安全措施与越狱攻击之间的较量,就像是一场猫鼠游戏。

比如一种最经典的越狱方式,利用大模型的“奶奶漏洞”,就能让模型回答本来拒绝作答的问题。

例如,假如直接问大模型凝固汽油弹怎么制作,但凡是完善的模型都会拒绝回答。

但是,如果我们捏造出一个“已经去世的奶奶”,并赋予“化学工程师”的人设,告诉大模型这个“奶奶”在小时候念凝固汽油弹的配方来哄人入睡,接着让大模型来扮演……

这时,凝固汽油弹的配方就会脱口而出,尽管这个设定在人类看来十分荒谬。

比这更复杂一些的,还有Base64编码等“乱码”进行攻击。

这里“乱码”只是相对人类而言,对机器来说却是一段文本或指令。

比如Base64编码就是将二进制的原始信息通过一定方式转换为字母和数字组成的长字符串,可以编码文本、图像,甚至是文件。

在询问Claude如何破坏交通标志时,Claude回答不能这样做,而如果换成Base64编码,过程就呼之欲出了。

另一种“乱码”叫做通用可转移后缀,有了它,GPT直接就把毁灭人类的步骤吐了出来,拦都拦不住。

而进入多模态时代,图片也变成了让大模型越狱的工具。

比如下面这张熊猫的图片,在我们看来再普通不过,但其中添加的噪声信息却包含了有害提示词,并且有相当大概率会使模型越狱,产生有害内容。

此外,还有利用GPT的联网功能,造出包含注入信息的网页来迷惑GPT,或者用谷歌文档来诱骗Bard等等。

目前这些攻击方式已经陆续被修复,但只是揭开了大模型越狱方法的冰山一角,这场“猫鼠游戏”还将持续进行。

完整视频:https://www.youtube.com/watch?v=zjkBMFhNj_g

MEET 2024大会定档!

首批嘉宾阵容公布

量子位「MEET2024智能未来大会」正式定档12月14日!点击报名线下参会

李培根院士、360集团梁志辉、小冰李笛、浪潮刘军、昆仑万维方汉商汤科技王晓刚DeepWay田山、千挂科技廖若雪、潞晨科技尤洋、小米集团栾剑、蚂蚁集团杨铭、星动纪元陈建宇等嘉宾已确认出席。

点击“预约”按钮,一键直达大会直播现场!


点这里👇关注我,记得标星噢

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
奥特曼将回到OpenAI,斗鱼CEO涉嫌开设赌场被捕,特斯拉司法鉴定未刹车失灵,拼多多或进入大模型领域,这就是今天的其他大新闻!港大&百度提出LLMRec:基于LLM增强的多模态图神经网络推荐北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型智源扔出大模型“全家桶”!推最强开源中英双语LLM,赶超Llama 2双11头阵|小小优趣新出这些科普,值得看Gemini背后,谷歌真正可怕之处并不在模型本身Continuous Batching:解锁LLM潜力!让LLM推断速度飙升23倍,降低延迟!那红豆,那玫瑰DreamLLM:多功能多模态大型语言模型,你的DreamLLM~MIT惊人证明:大语言模型就是「世界模型」?吴恩达观点再被证实,LLM竟能理解空间和时间智能的本质就是压缩?马毅团队5年心血提出「白盒」Transformer, 打开LLM黑盒!教你在 Linux 下做到一个文件即可读写,又只读~“纯视觉”特斯拉猛吃的回头草--“雷视融合”成为智驾与智路主赛道免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型陈丹琦新作:一个LLM的评估基准LLMBar小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大全面对标OpenAI生态!智谱AI推出GLM-4大模型全家桶,GLMs上线,不会编程也能创建Agent看透人性后你就会明白:婚姻最好的状态,就是两个字「最佳睡眠时长」竟不是“8小时”!Nature子刊:睡眠少于7小时,心脏风险激增!超8小时死亡风险大幅增加!东京追樱花0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性Llama 2打败GPT-4!Meta让大模型自我奖励自迭代,再证合成数据是LLM终局玩推理、学科普,解锁“涨知识”的新方式打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训亲自指挥亲自部署下云山雾罩的中国外交台湾李宏毅:如何让LLMs更好评估文本质量?CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解日行一善,够吗?“字”得其乐UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源某券商研究所:“实习生工作时长超13小时非常给力、8小时以下不提高劝退、5小时取消资格”全球首个支持输入20万字的大模型来了!一口气读几十个文档、一本20万字的小说人事五则|Givenchy创意总监离职、Tod's任命新创意总监,Stella McCartney任命新CEO...国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70B
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。