Redian新闻
>
ChatGPT真的听懂了你的话吗?它真的能代替你工作吗?

ChatGPT真的听懂了你的话吗?它真的能代替你工作吗?

职场

首发于“人神共奋(ID:tongyipaocha)”微信公众号

每周一篇原创:职场学习类干货

ChatGPT是如何学习的?



1/6

多年以后……


多年以后,面对长长的领失业救济金队伍,人们将会回想起2022年12月,不是因为大感染,而是初次体验ChatGPT。那时,人们感受到的,还不是旧世界的行将崩塌,而是对新世界到来的惊叹。


请允许我用这样一个烂俗的开头,因为大部分人可能都低估了ChatGPT对未来生活的改变,以为不过是一个更智能的搜索引擎,只有这句话才是最恰当的表达。


当然,如果觉得太悲观,或者机器代替人类的思路太俗套,我们也可以给自己的晚年换一个喜剧的结局:


多年以后,面对不需要上班就能领到工资的银行卡,人们将会回想起2022年12月……


ChatGPT对于人类到底是悲剧还是喜剧,并不取决于技术本身,而在于我们每一个人如何对待它,但毫无疑问的是,这将是人工智能诞生以来,人类的工作第一次真正接近被大规模替代的时点——不是部分工作被替代,而是大规模被替代的开始


为了消除这种深深的恐惧,我很想知道ChatGPT到底是如何学习的,于是花了几天时间看了一些技术资料,大致理解了机器学习的过程。


没想到恐惧没有消除,反而多了几份敬意,敬意是送给ChatGPT算法的设计者,这真是一个天才的想法,而恐惧是我再次确信,不是少数专业工作者被替代,而是大量的普通白领。


这一篇文章,我想从ChatGPT的底层逻辑——“学习方法”入手 ,谈谈我为什么这么认为。


不过,在介绍核心内容之前,我先简单谈一谈ChatGPT跟以前的AI有什么根本的不同。



2/6

决策式AI和生成式AI


我们比较熟悉的AI已经成功应用的领域,包括人脸识别,自动驾驶、精准广告推送、风险评级,这些领域都有一个共同点——判断与决策,所以称之为“决策式AI(Discriminant Model)”.


ChatGPT应用的是另一个领域:生成式AI,首先要理解文本的要求,判断自己的任务,检索相关的内容。这些跟决策式AI并没有什么不同,只是ChatGPT多了一步,它还要生成全新的内容,需要预测对方的理解偏好,将回复内容变成流畅的文本或有意义的图片、视频。


决策式AI使用的是“条件概率”,一件事发生后,另一件事发生的概率,对于某些特定的场景,即使是最复杂的自动驾驶,输出的决策数量也是有限的;


而生成式AI更多使用“联合概率”,即两件事同时发生的概率,以此将各种文字或图像视频元素组合在一起,进行模仿式创作、缝合式创作。


比如说,要表达“70%相信”的意义,系统需要对“非常”、“极度”、“几乎”、“认可”、“同意”、“信任”、“信仰”这些词不同组合后的概率排序进行判断。


所以,相对决策式AI使用在有限的固定场景而言,生成式AI的应用范围宽广的多,未来的想象空间也更大,GPT需要调用上千亿个参数,海量算力的支持。


所以2022年以前,生成式AI看上去很笨,更多是辅助我们做一些内容,比如根据文字转语音,语音转文字。图像层面,大家最熟悉的是各种美颜神器,还有自动抠图、换脸等图像智能编辑、视频智能剪辑。


但2018年GPT这个革命性的算法诞生之后,经过GPT-1、GPT-2、GPT-3三代进化,生成式AI终于进入“专业化、个性化定制内容终稿”阶段,达到替代部分专业内容生产者的目标。


GPT是如何实现这一伟大的进化的呢?下面我把这个机器学习的过程,尽可能用非专业术语描述出来。



3/6

ChatGPT是如何学习的?


生成式AI的难度,在于对人类语言的理解,人类语言含糊、复杂、多义,还有大量象征、隐喻和联想,如何让使用0和1的机器理解呢?



ChatGPT之所以效果惊艳,在于它充分吸取了之前机器学习算法的经验,又有自己的创新之处,整个过程分为三步:


第一步:冷启动监督策略模型(SFT)


这一步的目的是让系统建立大量人类语言的理解模型,训练方法就是让AI做“填空题”和“选择题”,比如:


老王在家里烧菜,发现没盐了,他出门向小李借了一点盐,小李最可能是?

A、邻居;   B、供应商;   C、儿子

(这一部分的例子都是我随便举的)


这些训练题来自使用OpenAI的试用用户的真实内容,然后雇佣大量“标注工”对这些内容“出题”,并给出答案。


做了大概1.5万条题目后,机器渐渐学会了预测问题的意图,准确率也越来越高,最后形成各种语言策略(SFT)。


当然,这一步训练得到的只是初步的模型,谁也不知道系统到底理解了些什么,输出的内容也就不可靠。国内大部分机器人客服大概就到这一步,且只针对有限的数据库的内容,常常可以看到文不对题的弱智回答,说明机器并没有真正理解人类的意图。


更常见的问题,一旦离开了专业的数据,系统就会出现大量的“反人类”的表达方式,最典型的是自动翻译的很多结果。


想要让系统知道如何“有话好好说”,需要它理解人类各种情景下的表达偏好,这就是“奖励模型”——


第二阶段:训练奖励模型(RM)


接下来进入真正的人工反馈的强化学习,这一步是让模型的输出内容和人类习惯的输出内容进行比对打分,让系统学会像人类一样表达各种微妙的意思。


这一步的具体做法,先让系统自行生成几个答案,再让“标注工”对这些答案的质量进行排序,比如:


问题:情人节有人约你,你不喜欢他,怎么拒绝更委婉?


系统通过之前的学习,给出了三个答案:A、谢谢,今晚我有约了;B、你是个好人,但不适合我;C、太不巧了,我今天要加班。


“标注工”对这些答案的质量进行排序:C>A>B,这些排序最终形成一个对答案优劣打分的奖励模型(RM),让系统越来越能预测人类的表达方式。


如果拿小朋友学习语言来比喻,第一步就像做填空、选择类客观题,最终成果是让系统可以自动生成一些完整有意义的文本;第二步就是做主观题,只不过要求给出几个答案,批卷老师负责对几个答案进行排序,让系统知道什么样的文本更符合人类喜好。


这两步都需要大量人工标注,而这两步结合起来的第三步,要脱离“人类老师”由机器自动检查自己的学习成果,微调策略。



第三步,PPO模型


大致过程是,先用第一步的策略(SFT)随机生成一个新的文本,放到第二步的奖励模型(RM)里打分,根据分数再回头训练生成新的表达策略(SFT),再调整第二步的奖励模型(RM)的函数,反复迭代,生成最终的模型。


到了这一步,就相当于学生“自学”,自己给自己出题,再对答案,根据答案,修正并改进自己的知识体系和学习方法,最终达到毕业的要求。



不过,“毕业”不代表学习结束,GPT-3之后,OpenAI模型提供了外部API调用——就是我们现在做的,产生了真实用户提问和模型迭代之间的飞轮


ChatGPT超出之前模型的重要原因之一,就是引入了人工标注,这么做可以让模型的思维习惯、表达方式、价值观等等,和人类进行最大程度的一致


也许是ChatGPT的表现实在是过于惊艳了,以至于很多人在与它“对话”时都会想到一个问题:


ChatGPT是否真的理解了人类的语言?是否有了思想?如果是这样,它最终会不会发展为一个有知觉的、有自我意识的强人工智能?



4/6

ChatGPT算不算“懂王”?


要回答这个问题,先来看一看ChatGPT训练的两个目标:


1、理解合理、内容流畅和语法正确

2、生成内容的有用性、真实性和无害性


目标一,基本上没有问题,这也是真正让我们惊叹的地方,它似乎真的能理解我们的语言,并用人类的语言和我们交流。


目标二,粗看也没有问题,特别是那些无法通过搜索引擎直接找到的复杂要求,当你与它持续交流后,它会越来越理解你想得到的内容。


但随着使用量的增加,很多人发现,ChatGPT其实并不真正“理解”你的问题,或者说目前还没到这一步。


最典型的证据在于,如果你用一个模糊的方式问一个明显错误的问题,它常常会很认真地给你一个凭空捏造的回答,比如下面的这个唐玄宗大败赵匡胤的问题:


这个错误,我也试了一个,结果到现在都是如此:



我猜,它的训练数据可以让他判断唐玄宗干过什么,赵匡胤干过什么,却无法让它建立唐玄宗与赵匡胤的关系。


本质上说,ChatGPT只是一个“语言机器人”,它能回答你关于计算机的问题,并不是因为它“懂”这方面的知识,它懂的是所有的语言文字在特定要求下的分布概率,并能预测你要的那个概率


所以说,它只是在无意识地模仿人类的表达方式,把搜索到的信息以适合的方式表达得以假乱真


与其说懂,不如说是“不懂装懂”。


当然,这个能力对普通人而言,跟“懂”并没有区别,但普通人的认知水平和表达能力正是机器的“懂”的极限,大部分专业领域,它只能输出该领域中初级人员的内容,更不可能去解决创新的问题


很多人认为,这也许就是机器人的“懂”,说“唐玄宗大败赵匡胤”并不代表不懂,小孩子也会问关公秦琼哪个更厉害的问题,毕竟ChatGPT还很“小”,每天大量的用户训练下,它也许会进步呢?


但我对此并不乐观,其原因在于,ChatGPT效果最大的还是最初1.5万条有监督的语言模型任务(SFT)——人类老师对它的语言习惯影响很大。


你跟ChatGPT聊久了之后,就会发现,它说话的方式有一种说不出来的假模假式,就好像领导拿大话在忽悠你,所以,除了擅长知识性的问题之外,试用者最津津乐道乐道的是让ChatGPT写年终总结、政治口号、思想汇报、老胡体、打油诗、领导关怀、客户回应等等充满了形式感、套话空话一堆的内容。


还有,ChatGPT经常会犯错,比如做计算题,犯的错误还不太一样,并且是真人常犯的错误——它真的很像人类


这里就有一个很严重的问题,如果你问了一个专业上的错误的问题,很可能得到看上去很有用的错误答案,而且因为ChatGPT太会不懂装懂了,很容易让人信以为真——就像那些朋友圈阴谋论一样。


说白了,它的模型就是个没有什么专业特长的普通人,除非下一代模型有质的变化,否则它在这个方面的可进步空间有限。


但ChatGPT的可怕之处,正是这个“普通”二字。



5/6

即将进入的恐怖谷


大家应该都听说过“恐怖谷效应”,随着机器人或人工智能的拟人程度增加,人类对其好感度出现“上升(有点相似)——下降(高度相似)——上升(完全相似)”的过程,而谷底正是人工智能与人类第一次高度相似的时候。



我看到有分析认为生成式AI已经成功跨过了恐怖谷,进入“逼真性”阶段,理由是随着生成内容与人类相似程度的提升,人类对生成式AI的好感正在增加。并热衷于使用,比如ChatGPT是人类历史上最快突破1亿用户的App。


但我的看法刚好相反,它正处于恐怖谷前的“人形机器人”阶段,使用者只是习惯性地把它当成更智能的搜索引擎一类的工具,很快就要意识到ChatGPT的恐怖之处


ChatGPT未来让人害怕的地方恰恰在于,它不像专家,更像是你身边的普通人——如果像专家,它可以替代的工作反而非常有限。


从原理上说,ChatGPT大规模替代人类工作的担心并非杞人忧天。


首先,ChatGPT的商业模式,可能不会像搜索那样依赖广告,难以出现大规模的2C级应用,而更可能是2B,主要运用于工作场景。


其次,ChatGPT与搜索不同,它输出的基本上是最后的工作成果,而不是搜索那样出现一堆内容,让人类去选择,所以它更像“员工”,而不是员工的工作工具


最后,ChatGPT与决策AI不同,它并不寻求像专家那样找到复杂问题的最优解,而是针对大部分人日常工作的非专家级内容,输出相对合理有用的内容。因此,它可能替代人类的工作范围大大超过想象,不像产线工人、打字员、驾驶员那样,仅限于几个特定的职业。


更何况,工具和员工在一定程度上也是利益对立的,比如和ChatGPT类似的AIGC绘画,目前游戏行业已经开始应用,以前画张原画用三天,现在一天弄完,以前要什么素材要去素材网找,现在要啥直接生成,改改就可以用——尤其那些外包公司,工作效率提高好几倍。


AIGC的工具性质更强,需要人去创作,但由于工作效率大大提升,原来需要招三个设计师,现在一个就行了,这仍然是对人的替代。


有预测,2025年,生成式AI产生的数据将占到所有数据的10%,30%的大型组织出站消息将由生成式AI生成;50%的药物发现与研发将使用生成式AI。


我们不用担心AI拥有意识,但我们确实需要考虑AI大规模替代人类工作的可能性。



6/6

会提问题的人将是最后的赢家


必须承认,人类的大部分工作之所以容易被ChatGPT取代,是因为这些工作需要产生大量文本或其他形式的内容,这些内容本身难度并不高——ChatGPT广泛并普通的刚刚好。


不过,正如任何一项技术都有两面性,既可能让懒得思考的人抄答案,也可以让求知若渴者加速进步。写本文时,看到了ChatGPT与 Bing 搜索结合后的功能介绍,它可以让你的工作不但不会被AI取代,反而创造了全新的工作方式。



比如说,你打算写一份新产品推广的方案,你在问它如何写时,可以详细地描述这个产品的特点和你的目标、推广预算。


AI并不会直接给你一份充满套话的无用方案,而是给你一个推广方案的结构,主要建议,主要内容,还会给出相关内容的引用标记和原文链接。


你还可以就这些内容进一步提问,它会给你更多你想要的东西,更重要的是,它甚至还能提供几个你没有想到的延伸问题,看看你是否需要回答。


可以想象,你将边使用“ChatGPT与 Bing 搜索”,边完成你的这项工作,与单纯靠ChatGPT输出的方案不同,它是真有可能产生真正创新性的内容的


如果说,工业革命拉大了财富差距,互联网拉大了资讯获取能力的差距,人工智能则直接拉大了学习能力的差距。


未来世界将属于会提问的人。


如果文章对您有点滴帮助,欢迎转发或点击右下角“在看”。



与“社会观察”相关的文章


错误链式反应:你看到的权威理论,可能没有那么可靠

现在的人,为什么越来越极端?

为什么政府不能“下一盘大棋”?

大数据不歧视你,大数据只预测你

失败不是成功之母,“迅速失败”和“安全失败”才是



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ChatGPT揭开AI时代!AI真的能超越人类吗?失业潮真的会来吗?和CTO们聊一聊,ChatGPT真的能在金融圈「抢活」吗?这款疫苗能“终结新冠”?它真的有这么强吗?ChatGPT将剥夺我们的工作吗?考研落榜后,还有出路吗?要相信那些劝你去留学的话吗?ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!重磅!GPT-4 正式发布,新版 ChatGPT 强到离谱,我们替你抢先体验了ChatGPT真的是「通才」吗?杨笛一等人给它来了个摸底考试ChatGPT通过美国医师考核!能代替医生看病吗?我们做了个有趣测试ChatGPT到底有多厉害,会威胁你我的工作吗?ChatGPT能跟人真正对话吗?聊一聊:你觉得ChatGPT会替代你的工作吗?ChatGPT会取代你的工作吗?答案取决于你的认知癌症治疗的效果竟取决于生物钟十个角度带你读懂百度财报:ChatGPT真是全村人希望吗?ChaptGPT 8分钟通过法学院考试,AI 代替神童的时代来了?ChatGPT:抢走你工作的从不是AI出去兜一圈省了100块小钱。。ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇大咖带头千人联署要求暂缓训练chatGPT,这是技术恐惧症的又一次发作吗?太阳氦闪是个啥?它真的会发生吗?ChatGPT真的太牛了!问了它几个地理问题,答复如下,震惊了!美国入境档案--黎莉莉罗静予横空出世!ChatGPT会抢走你的工作吗?ChatGPT真正会颠覆的,是内容创作成本集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布ChatGPT真猛!直接写了一本量化交易的书(附下载)ChatGPT为什么不能代替人退休 17- 聚餐刘家(3)喜报|国内首个诱导多能干细胞外泌体临床研究项目启动、ChatGPT能代替医生吗?惊心动魄世界杯-荷阿大赛峰回路转办公室里经常说的“反话”,你真的听懂了吗?ChatGPT 或导致 20 种工作失业?恐怕远远不止,比尔盖茨 :ChatGPT 将改变世界金融民工会因为ChatGPT下岗吗?刚刚,我问了ChatGPT 24个金融圈灵魂问题有茶有酒,祝福语替你说,送它真的很容易被朋友夸
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。