对 chatGPT 的误解
最近在各个 chatGPT 的群里观摩了几千个问答,感觉大家对于这个新事物有一些误解,这是我看到的几种。
一、把 chatGPT 当作肚子里的蛔虫
很多人刚刚开始使用这个工具,特别喜欢问这样的问题:
帮我写一篇演讲稿
结果,chatGPT 生成了一篇文章通顺但是内容完全是瞎编的文章,提问者摇摇头,“这演讲稿不能用呀!”。如果真的下午就能用,那还不把人吓死?
chatGPT 是一个语言模型,是一个transformer,或者说是一个翻译官。要想把 chatGPT 用好,需要给它必要的信息,比如你要讲什么内容,听众的描绘,以及你要求的风格等等在提示短语中告知,结果才会满足自己的需要。
二、以为使用 chatGPT 不需要学习
就像任何的工具一样,一个新工具一定会极大的降低做一件事情的门槛,但是没有任何事情达到优秀不需要学习。纸和笔当然比在石头上雕刻容易很多,但是写毛笔字也是需要一些技巧的;照相比油画容易了不止一个数量级,但是催生了一门叫做摄影的手艺,不是所有的人拍摄的照片都一样好。同理,如何使用 chatGPT 这个新工具,还是需要去了解如何写 prompt 。这方面有非常多的资料可以学习。好的问题,足够的信息,才可以获得比一般人更好的结果。
三、把 chatGPT 当 Google 用
虽然很多人(包括我)都认为这个技术之上有可能诞生出比 Google 更好的搜索引擎,但是千万不要忘了,还是那句话,chatGPT 是一个用大量数据训练出来的语言模型。也就是说,它的最强项还是语言的理解,组织和输出。也就是一个翻译官。
它在训练的时候使用了大量的文本数据(GPT3 用了 45 T 的文本,chatGPT 用了 500 G 的文本)。这些文本是炼丹的草药,是为了炼那个 1750 亿语言模型这个仙丹,而剩下的算是药渣吧。那些数据是 2021 年的,是有限的,并且并没有频繁更新的计划。
如果仅仅看数据来说,45 T 比起 Google index 的“远超过 100,000 T”来说,可以说微不足道。这也是对于大多数信息,哪怕是最新的, 在 Google 里面总能找到,而在 chatGPT 里面只有最经典的那些事实问题的答案,以及没有正确答案的“文科生”问题,比如无关对错的“总结中心思想”什么的,而对于大多数问题并没有答案。
如果要做更好的 Google,还是需要有公司做数据的爬取(或者获取),然后喂给这个翻译官,然后才会有靠谱的结果。
四、把 chatGPT 当通用智能来看
它不是。对于每个答案,都需要强调,它是语言模型,不是逻辑或者计算模型。它对于数学都不会,更不要说逻辑。(数学也是顺口溜似的,见得多了就会做,没见过的就不会做)。大家尤其不必去问他完全没有答案的问题,比如《流浪地球3》的内容介绍。他一定会按照“语感”生成一篇文章的,但是。。。。反正除了通顺不要指望任何有价值的信息了。
五、因为看到 chatGPT 而担心失业
这是最不需要担心的。可以看这篇文章:《AI会让我失业吗?》。每当看到生产力的快速提升的时候,我们每个人都应该高兴,因为比起农业劳动来说,我们这些人现在的所有的工作都是在农民大面积失业以后才产生的。如果没有文员,程序员等的大面积失业,怎么会有未来大量的艺术类的高收入工作的诞生呢?
七、看到 chatGPT 的诞生,以为机会是做一个类似的模型
回顾历史,当我们看到 Google 的时候,第一反应不应该赶紧抄一个 Google, 而是发现早期 Google 里面内容如此稀缺,应该做网站了。
看到 chatGPT 以后,除了极少数公司,大多数公司的机会是为 chatGPT 提供内容。如上所说,chatGPT 里面可用的内容,如同知识的荒原,任何提供知识,服务,或者能力的公司,在新的荒原中有可能有机会。
来源 | 王建硕(ID:gardendewalle)
作者 | 王建硕;编辑 | 时刻
内容仅代表作者独立观点,不代表早读课立场
微信扫码关注该文公众号作者