Redian新闻
>
ChatGPT发疯怎么办?小冰李笛:两个关键,我可破之

ChatGPT发疯怎么办?小冰李笛:两个关键,我可破之

科技
萧箫 衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

微软必应接入GPT大模型后,效果并没有大家想象中那么好——它发疯了。

如今官方紧急出面,更(砍)掉)了必应上面最受欢迎的功能,也就是发表观点的能力。

大伙儿显然很不买账,认为新必应失去了最有意思的部分,现在版本的体验感甚至不如siri 1.0。

有网友寄希望于必应背后的大模型升级:

说不定现在只是GPT-3版本,GPT-4还没发布呢。

然而据《纽约时报》等爆料,必应背后的大模型很可能就已经是GPT-4了……

我们将这一现象抛给国内最熟悉AI Chat领域的人——李笛

他上来就给热得发烫的大模型浇了盆冷水:

新必应和ChatGPT目前表现出来的bug,反映出大模型不得不解决的一个关键问题。

这个问题可以一时无视,但做大模型、甚至是类ChatGPT产品,如果不解决它,终究会碰壁。

这个bug,就是大模型的逻辑能力。

大模型:成也逻辑,败也逻辑

事情要从ChatGPT背后的GPT-3.5模型说起。

从GPT-3.5开始,大模型展现出一种突破性的能力——思维链(CoT,Chain of Thought),也就是逻辑思考能力。

举个例子,在做数学题时,相比直接输出答案,模型能一步步推理直至给出正确答案,体现的就是思维链能力:

但此前在中小模型、甚至一部分大模型上都没有发现这种能力,学界便认为这是某些大模型独有的“新特性”。

基于这一“新特性”,大火的ChatGPT横空出世,在回答问题和发表看法时展现出了像人一样思考的效果。

然而李笛认为,GPT-3.5表现出的这种逻辑能力,是不稳定、不可控甚至危险的。

第一,它的思考方式不透明;第二,它连引用来源都没有。

这两个问题看似被OpenAI用大量人工精细标注的数据、大量的模型参数掩盖了起来,但一旦加入不可控因素(像必应一样接入互联网、或修改参数等),就随时可能导致模型崩溃。

因此,如今逻辑思考能力正在成为大模型的双刃剑——

使用效果好,大模型迈入新的时代;一旦失控,只会让大模型更难落地。

为了举例说明大模型的逻辑能力存在问题,李笛提到了小冰公司最新发布的产品小冰链

小冰链(X-CoTA,X-Chain of Thought & Action)同样是个大语言模型,通过对话的方式帮人们解答问题。

但它最典型的不同,在于仅仅用GPT-3参数量2%的模型就实现了思维链,而且思考过程还是透明的。

模型大小上,它不仅不是GPT系列的千亿参数大模型,背后参数只有几百亿甚至最低能降到35亿

至于功能上,它拒绝像ChatGPT一样生成综述、作业和发言稿,但能实现的功能更多。除了不避讳对事件发表看法、主动联网找答案以外,还能灵活调用各种模型或知识库完成任务。

具体来说,小冰链的架构分为三个模块

模块一负责运用思维链(CoT)能力处理语句。

这部分可以调用具备CoT能力的大模型来实现,但也可以调用上面说的35亿参数左右的中模型,将输入的语句转换成具体行动的Action指令输出。

模块二负责执行指令(Action),这部分接收并处理模块一输出的Action指令,负责执行对应的任务。

根据处理的指令不同,模块二调用的模型和数据也并不相同,至少有三大使用方式:

  • 联网或本地知识库搜索。既可以追踪互联网查找最新热点、甚至网页跳转,也可以在特定知识库中索引答案。

  • 调用特定模型做某件事。如调用效果很好的扩散模型完成作画、或调用语音模型合成声音等。

  • 控制物理世界特定行为。如开灯、买机票、打车等,不一定是特定指令,而是模型推断后得出的结论。

模块三负责自然语言生成,简单来说就是将思考行动的结果用人话描述一遍,再汇报给用户。

总结来看,小冰链可以说是把ChatGPT最火的“思考方式”拿出来单独做成模型,并不断降低模型大小。

李笛认为,即使小冰链的核心模型大小只有中等水平,却也能在一些问题的思考方式上展现出与大模型相近的效果。

还能联网,抢在吃瓜第一线

基于这样的观点,李笛在一众主流“要做中国的ChatGPT”呼声中反其道而行之,不仅不宣传自家类ChatGPT产品,甚至推出了个强调“这不是ChatGPT”的小冰链。

看起来似乎有点非主流(手动狗头)

这么做,真有理论依据吗?

背后的技术依据CoT,确实在国外已有不少相关研究,包括前段时间爆火的“哄一哄让GPT-3准确率暴涨”论文也在此列:

团队在研究中发现,只要对GPT-3说一句“让我们一步一步地思考”,就能让它正确回答出以前不会的逻辑推理题,比如下面这个来自MutiArith数据集的例子:

16个球中有一半是高尔夫球,这些高尔夫球中有一半是蓝色的,一共有几个蓝色的高尔夫球?

这些例子专门考验语言模型做数学题的能力,尤其是逻辑推理能力。

GPT-3本来在零样本场景(之前完全没见过类似体型)下准确率仅有17%,但在要求它一步步思考后,准确率最高能暴涨到78.7%

这种名为CoT的方法,最早在去年1月由谷歌大脑团队发现并提出。

其核心思路是基于提示(prompting)的方法,让大模型学习一步步思考的过程,有逻辑地解决实际问题:

但上述思维链(CoT)论文基本都还停留在对大模型的研究上。

李笛却认为,思维链所代表的逻辑能力不是专属于大模型的产物。

在国内,“AI”或许已经是一个人尽皆知的词语,也是进行得如火如荼的创新风潮。

如果李笛所述方法得以验证,那么AI产业化应用除了“堆参数”、“砸资金”这一条大模型路线以外,或许还有其他出路。

国内AI应用落地,势力三分

ChatGPT的效果和热度,让走在大模型路线上的人们看到了一丝曙光,但并不意味着AI产业化路线只剩下大模型这一种可能。

或者说,ChatGPT的热度,反而能更鲜明地呈现出当下国内外AI应用落地的现状和趋势。

先提纲挈领地讲,主要路径可以分为三条。

第一种就是直接做底层大模型。

这是最直接、最容易理解,同时也是最难走的一条路。

一方面,大模型需要的训练数据是海量的,而现实情况是可用作训练的数据、尤其是中文数据较少。

以最近的热点举例说明,复旦邱锡鹏教授团队推出的中国首个类ChatGPT产品MOSS,最大短板是中文水平不够高,重要原因之一就是背后大模型训练时缺乏高质量的中文语料。

另一方面,大模型的参数是海量的。ChatGPT每一句看似简短的回答,都把1750亿参数调动了一次。

巨量参数首先给标注工程带来了巨大的工作量,为了应对这个环节,OpenAI在肯尼亚以低于2美元的时薪雇佣大量工人,夜以继日地进行数据的筛选标注。放眼国内,能拿出如此多人力耗在标注工作的,大约只有字节跳动、百度等巨头公司。

上述两个方面,最后的箭头都直指同一个问题:成本,无法估量的成本。

OpenAI CEO奥特曼曾在推特上透露,ChatGPT每次对话的计算成本为5美分,“让人难以忍受”。5美分这个数字看似单薄,然而每个人每天与ChatGPT对话的数量、以及不断增长的使用人数,叠加起来将会达到一个非常恐怖的量级。

谷歌母公司Alphabet的董事长ohn Hennessy在本周表示,大型语言模型等AI对话成本,可能是传统搜索引擎的10倍以上。此前摩根士丹利估计,2022年谷歌的3.3万亿次搜索查询,每次成本为0.2美分,如果接入Bard这类产品,根据AI文本生成的长度,这个数字还会增加。

类似ChatGPT的AI每次回答50字,来回答一般的查询业务,那么谷歌每年成本将增加60亿美元

值得注意的是,无论哪位国内玩家堆出了一个与GPT-3.5甚至GPT-4媲美的大模型,还须找到能够落地跑起来的应用场景,唯有实现商业闭环,才不致血本无归。

第二条路,是从大模型中去粗取精

展开来说,就是在尽可能保留、甚至提高大模型某一单项能力的前提下,缩小参数量级,致力于用更小的模型实现大模型表现出来的功能。

如果把大模型看作一辆自行车,堆参数的过程就是在大模型上实现某个效果的过程,过程艰辛而缓慢。去粗取精之后,不用自行车缓慢前行就能达到效果,相当于在通往同一目标的路上造火箭。

亚马逊在走这条路,方法是直接从小模型起手,不过这条路能走通,需要一个关键前提:中小模型可以接近、甚至达到大模型展现出来的实用能力。

砍掉不需要的枝叶,向下探索具有特定功能的模型规模最低下限,能够一定程度上缓解大模型训练带来的成本压力。

但这条路线亦有争议,一是因为ChatGPT大模型已经展现出应用可行性,坚持这种做法势必在技术上逆流而行;二是即便成本更优,却尚未有现实案例压阵,证明这种路线就能在AI应用落地较量中取得最后的胜利。

第三条路与前两者不同,并非技术差异,而是直接从商业化角度打出竞争优势。

这类玩家不需要在技术上多下文章,而更考验商业创新能力,属于想好场景应用后“拿钉找锤”的模式。

目前,国外已经有顺着这条路发展的可参考案例,比如AI初创公司Jasper,就是基于GPT-3开放的API提供各式服务,利用AI为博客文章、社交媒体帖子及网页等平台生成文字内容。

但凡产品体验足够好,或者场景资源足够丰厚,就能积攒大量用户,形成自己的核心竞争力。

反向思考之,正因为核心竞争力不是技术上的,走这条路的公司,头顶永远悬着一柄达摩克利斯之剑。把产品甚至公司的命运寄托在他人手中,随时有被卡脖子的风险,如何能不时刻提心吊胆?

三条路线摆在眼前,利弊也已经初步显现。第一条路,意味着巨大的成本;第二条路,方案尚待验证;第三条路,核心生产资料不可控。

哪一条才通向罗马?又或者,这三条路之外,是否还会出现直通AI应用落地的潜在捷径?

李笛说,他们选择第二条路。小冰链也正是基于这条路径之上探索出来的产物,本质上仍旧是从“可解释人工智能”的角度,探索成本、风险可控的AI商业化落地应用。

至于方案验证,或许也不用等太久,李笛说,未来小冰链会和必应合作,将这种方法应用到搜索引擎上。

实际应用效果如何,我们拭目以待。

— 联系作者 —

《中国AIGC产业全景报告暨AIGC 50》调研启动

谁会是中国的“ChatGPT”?最有竞争力和潜力的AIGC力量位于何方?

量子位《中国AIGC产业全景报暨AIGC 50》正式启动对外征集,期待有更多优秀的机构、产品、案例与技术能够被大众看到。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!想起我爸ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇说“在一周内6名院士去世”是正常的,看看这张图?ChatGPT到底有多聪明?我测试了ChatGPT的数学能力ChatGPT带来多余人口,怎么办?下载量暴增10倍!微软必应集成ChatGPT后需求大爆发;4省份上调最低工资标准;淘宝已屏蔽ChatGPT关键词丨邦早报ChatGPT发展历程、原理、技术架构详解和产业未来邓小平在起落中如何使用汪东兴金融民工会因为ChatGPT下岗吗?刚刚,我问了ChatGPT 24个金融圈灵魂问题妈妈能否熬过这一关可能是我的最后一篇稿子:怎么用ChatGPT发大财?去年元宇宙、今年 ChatGPT,我要跟不上技术快速变化的节奏了怎么办?问ChatGPT:不会用ChatGPT怎么办?ChatGPT:你来了,那我怎么办?ChatGPT发展几十年后的世界....小冰CEO李笛:AI应该有“灵魂”如何判断此番是否“境外势力”作祟的办法:老大用自己做“诱饵”ChatGPT发布最新美国大学排名:Top 10大洗牌,哥大反超斯坦福!留学圈吵翻天了清华系ChatGPT发布!唐杰团队打造,专对中文优化,还能把握最新新闻动态小冰CEO李笛:小冰链不是中国版ChatGPT新加坡关注两个关键,若有必要将收紧入境;春节时中国大城市感染率或达80%ChatGPT是怎么变得这么强的?拆解追溯ChatGPT各项能力的起源小冰CEO李笛:AI面试会被钉在历史的耻辱柱,AI还在蛮荒时代很多人担心被ChatGPT取代,我们关心ChatGPT的歧视与遮蔽剽窃、作弊,ChatGPT竟偷偷生成了12篇署名论文!Marcus炮轰Ta变成CheatGPT集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布开启2023年:掌握3个关键,重获时间支配权离开微软的小冰,有与ChatGPT不同的命运突发!王卫军,被查!A股疯狂星期四:光伏跌到“以为太阳没了”!中国版ChatGPT发布,巨头股价大跌!百度版ChatGPT发布会憋了这么久,就这?5%以上?美联储重磅会议纪要流出,美股受惊跳水!两巨头对使用ChatGPT发出警告,美油突然大跌!ChatGPT发布最新美国大学排名:Top 10大洗牌、哥大反超斯坦福!留学圈吵翻天了30页论文!俞士纶团队新作:AIGC全面调查,从GAN到ChatGPT发展史ChatGPT引领AIGC!Lehigh最新《AI生成内容》全面综述,44页详述GAN到ChatGPT发展历程
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。