Redian新闻
>
数学论证GPT-4不是随机鹦鹉:真如此的话整个宇宙都会坍缩

数学论证GPT-4不是随机鹦鹉:真如此的话整个宇宙都会坍缩

公众号新闻
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

对于ChatGPT的工作原理,一个常见的解释是根据统计学规律预测下一个词。

但最近一位叫Jacob Bayless的工程师用数学方法得出惊人结论:

若是如此,所需的信息量足以让整个宇宙都坍塌成黑洞

这一数据量是500008000,根据贝肯斯坦上限(Bekenstein bound)原理,如果把这些信息分配到空间当中,所需要的信息密度已经远超宇宙能承受的最大值。

而这仅仅是把数据存储起来的消耗,更不必说还要进行运算了。

而ChatGPT与单纯统计预测的区别,可以做这样的类比:

如果天文学家通过历史观测记录推算出月食的周期,这可以算是统计学。

但当他们总结出牛顿万有引力定律的时候,就已经超越了统计学。

什么是“随机鹦鹉”

一个流传很广的说法,所谓大语言模型实际上相当于一个“随机鹦鹉”——

与我们观察其输出时的情况相反,语言模型只是将其在庞大的训练数据中观察到的语素胡乱拼接在一起,根据概率生成文本,但不清楚文字背后的任何含义,就像一个随机的鹦鹉。
出自论文On The Dangers of Stochastic Parrots: Can Language Models Be Too Big

这对过去的语言模型,或许确实成立。

比如曾经流行的n-gram算法。

比如当我们在搜索引擎中进行搜索时,出现的联想词就能用此方法实现。

具体来说,下面的三行文本中,第一行纯粹是随机生成,第二行考虑了单词在英语中整体的出现概率,第三行则考虑了单词在前一个词后面出现的概率。

n = 0: RECEIVE FALL SURPRISED FRIDAY INGREDIENT…
n = 1: REPRESENTING AND SPEEDILY IS AN GOOD…
n = 2: THE CHARACTER OF THIS POINT IS THEREFORE…

不难看出,随着n值的升高,文本越来越接近人类语言。

而n-gram模型根本不需要掌握其中的语义或理解其中的抽象概念,就能生成像模像样的句子。

据此有人猜想,GPT-4会不会也只是一种高级的n-gram呢?

Bayless提出,GPT必须学会抽象才能有如今的效果,至少GPT-4肯定如此。

GPT-4不只是“随机鹦鹉”

要证明这一点,可以先看下棋机器人的例子。

如果有一种下棋机器人,存储了巨量棋谱数据,对于每个棋局都能推荐下一步。

那它就能通过“背谱法”模仿其他任何棋手或程序的下法。

比如Stockfish是最先进的国际象棋程序,如果仅通过对战而不看源码,是无法确定Stockfish是否在背谱。

但实际上,包含所有情形和步骤的棋谱数据量可能超到2154。 

而Stockfish的程序只占用了不到50MB的空间,根本不可能存下需要的所有棋谱。

所以Stockfish肯定是通过更高级的方法来实现下棋的。

人类语言的复杂度远超过棋类游戏,因此GPT的数据量更是同理。

仅在是上一代的GPT-3的token字典中就有超过5万token。

如果对每个词都逐一建立统计信息,n-gram模型中n值将高达8000。

届时,需要存储的情景数量将达到500008000

正如文章开头所提到,这简直是天文数字,足以让整个宇宙坍缩。

因此,GPT是“随机鹦鹉”的猜测在理论上得到了一定程度的批驳。

“随机鹦鹉”达不到的高度

仅在理论上进行说明是不充分的,因此研究人员还进行了两个实验,意图证明大模型在学习过程中已经抽象出了算法。

第一个实验关于一道经典的农夫过河问题。

一个农夫有一条船,和狼、羊、菜,农夫要把这3样东西运到河到另一边,农夫每次最多只能通过这个船运一样东西,要防止狼吃羊、羊吃白菜(即不能在没有农夫在的情况下同时在同一岸边),该怎么过?

研究人员将这个问题中的农夫、船、河分别替换成地球人、虫洞和银河系。

狼、羊和菜则分别换成火星人、金星人和月球人。

替换的目的是因为互联网上不太可能出现类似语料,可以判断大语言模型是不是真的掌握了通用方法。

如果GPT不是“随机鹦鹉”,那么它至少不会犯下只有“随机鹦鹉”才会犯的错误。

GPT-4针对替换后的问题给出了正确的回答,GPT-3.5则没有。

但它们并没有犯研究人员预想的“鹦鹉”错误——即在回答中出现狼、船、河等已被替换掉的词语。

回答中使用的句子,也无法在互联网中被检索到。

这些现象都证明了现在的大语言模型的生成方式已经超越了“概率预测”。

第二个实验则是数字排序。

如果让GPT学习数字排序,它们究竟是只会记住给出过的数字顺序,还是真的研究出排序算法呢?

其实只要从GPT的输出当中就可以看出来了。

假如从1-100中随机选择10个数字,并将其顺序打乱,将一共有这么多种情形:

如果再考虑数字的重复出现,又或者数字的数量发生变化,根本不可能存储如此之多的情形。

因此,只要GPT能够针对未知的排序问题给出正确的回答,便可以说明它们是真的研究出了排序算法。

研究人员训练了一款特斯拉前AI总监Andrej Kaparthy发明的语言模型nanoGPT,专门让它做数字排序。

结果显示,随着训练步数的增加,模型给出的数字顺序越来越完美。

虽然在训练步数达到16万左右时突然出现了大量错误,但也很快得到了纠正。

这说明这款模型并不是仅仅根据学习的素材对未知的数字进行排序,而是已经掌握了背后的方法。

这个测试只是在一台笔记本电脑、算力非常有限的GPU上进行的。

更不必说GPT-4了。

参考链接:
https://jbconsulting.substack.com/p/its-not-just-statistics-gpt-4-does

「AIGC+垂直领域社群」

招募中!

欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!

请备注您想加入的垂直领域「教育」或「电商零售」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
5036 血壮山河之武汉会战 鏖战幕府山 5太空望远镜探索整个宇宙以了解暗物质和暗能量大师的抽象画,可不是随便画的!课程 | 如何让家成为温暖的港湾,而不是彼此的伤心地LeCun吴恩达开直播,疾呼GPT-5不能停!LeCun:干脆管制凤头鹦鹉6个月GPT-4版Windows炸场!整个系统就是一个对话机器人,微软开建AI全宇宙中国经济奇迹不是随便就能“复制”的!「ChatGPT之母」最新采访:GPT-4离超级智能还很远,半年内不会训练GPT-5用GPT打败GPT?AutoGPT将AI进程推向了新高度!|GGView看整个宇宙 为你闪烁|盘点全球十大绝美极光,你看过几个?权力压制? 偷换概念? 网友评史航性骚扰事件: 不过是各取所需! 果真如此吗?游戏逼真如现实世界,Unrecord狂揽60万玩家预约,毛骨悚然引争议吴恩达、Hinton最新对话!AI不是随机鹦鹉,共识胜过一切,LeCun双手赞成GPT作文能力比拼:GPT3.5、GPT4、百度文心一言、讯飞星火哇塞!多伦多亚裔地产经纪买2张彩票同时中奖!号码还是随机选的!最新湾区私校大新闻!!湾区要变身下一个宇宙级私校中心了!?鹦鹉通过视频聊天结识网友,LeCun:将大模型称为「随机鹦鹉」是在侮辱鹦鹉有证据了,MIT表明:大型语言模型≠随机鹦鹉,确实能学到语义【糗事,笑话】包治百病美国战斗机中的丑八怪,却无所不能【成功案例】马恩岛创新家签证get, 带娃在英国开心生活!社牛鹦鹉学会视频交友!LeCun嘲讽:叫大模型随机鹦鹉,太辱鹦鹉了科技大佬街头遇刺身亡!警方本以为是随机抢劫,真相反转,竟是情妇亲哥寻仇?一日一诗:在火树银花中 / 我们看到了彼此的脆弱与深情 | 马文秀:我们是彼此的山川陶哲轩预言成真!MIT加州理工让ChatGPT证明数学公式,数学成见证AI重大突破首个学科华裔数学家用GPT-4解数学难题;清华唐杰团队发布WebGLM;全国人大法工委回应“AI换脸”现象丨AIGC大事日报LeCun:说LLM是随机鹦鹉侮辱鸟了啊,人家三个月就学会视频网聊交友了大型语言模型技术公开课上线4讲!直播讲解ChatGPT开源平替、类GPT4低成本定制以及GPT4Tools人到中年读《史记》,被这句话整破防了「数学天才」陶哲轩:GPT-4无法攻克一个未解决的数学问题,但对工作有帮助闲话英国会计岗成功入职,工作签证get!海归携伴侣重返英伦!ChatGPT路线图曝光:没有GPT-5、识图功能要等到明年、GPT-3或将开源那夜的邂逅---北京的春天GPT-4.0对战GPT-3.5:GPT-3.5简直弱爆了!!!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。