未来世界,你的工作将由你的AI分身来解决
一、短期带来的就业机会将大于失业数
通常而言,对于那些以“涌现”的形式出现的新事物,比如生成式AI,我们总是会短期夸大它带来的改变,长期又小看了它带来的改变。
基于这个经验,最好的角度是用逆向思维去分析它的短期影响,用发散思维想象它的长期影响。
所以我的看法是,短期而言,生成式AI带来的就业机会将大于失业数。
从产业链本身来说,未来一两年将出现各种AI应用,出现一个巨大的AI新产业,一方面,现有的计算机、电子、传媒、通信等等行业都会有大量机会;
另一方面,会出现各种“AI+”应用型公司,帮助传统企业实现AI转型;
还有,很多AI应用的新型消费品的出现,都会带来大量的就业机会;
从企业界来看,管理者首先要尝试如何通过这些AI产品提高效率,如何在各部门间形成一个新的AI辅助工作的流程,也不会轻易裁员。
加上由于AI带来的生产效率的提升,企业也有能力暂时不裁员。
以游戏行业为例,最近听到的担心都是设计师要大量失业了,但这么理解太简单了。游戏是一个供给创造需求的行业,有好游戏、会带动很多轻度游戏用户增加使用频次,过去几年,从最早《植物大战僵尸》到跑酷类游戏,再到《王者荣耀》,手游行业的几次爆发式增长,都是某一款现象级游戏带动的。
所以我最近看到的并不是减员,而是计划推出更多的游戏,把经营精力放在游戏策略的设计上,以及如何使用AI技术提升用户的个性化体验。
另一方面,设计成本的下降,也可以帮助独立游戏开发者小成本尝试各种创新的点子,未来我们会看到更多创意独特的游戏。
所以游戏行业未来会减少设计人员的数量,但其他职位将有更大的人才需求。
那么长期的影响,会不会带来大量失业的风险呢?
二、人人都有很多AI分身
长期的可能性太多了,就要用发散思维,我的看法是,AI不是“取代”你的工作,而是“替代”你的部分工作。
ChatGPT有一个经常被人用的功能,模仿某个名人的说话方式,GPT-4也开始允许接入API的用户定制“性格”,这里很可能潜藏着一个未来的应用方式——AI分身。
它可以模仿某个名人的说话方式,就可以模仿你的思维方式,你“喂”给它的数据量越大,它就越能以你的思维方式进行工作。
也就是说,未来你的工作将由你的AI工作分身来解决。
未来的每一个人可以不止有一个“AI分身”,如果你还有多项基于兴趣爱好的职业,还可以再细分为工程师AI分身、画家AI分身、调酒师AI分身。
除了工作AI分身,还可以有购物AI分身、社交AI分身、家庭教育AI分身、健康管理AI分身、理财AI分身,等等。
你不喜欢的事,就让AI分身做,忙不过来的,也让AI分身做。比如说你很享受社交的过程,不喜欢购物,那么你可以让AI分身购物,本尊亲自社交。
当然,最重要是AI学习分身,它是你“一对一”的老师,你可以通过提问来进行兴趣式学习,实现“每日三省吾身”,所有的AI分身“更新”你的思维模式。
唯一不能用AI分身代替你做的,就是学习,这是利用大模型更新你的个人思维的唯一途径。
这些AI分身都是你思维方式的一部分,但融合了各自更专业的知识库,它们独立但又有联系。
你的思想藏在你的大脑里,为了共享数据,你日常生活最频繁的活动就是跟相关AI分身对话:
“我觉得昨天的工作还有些问题,你考虑到预算有可能超标吗”
“今天想看电影,帮我挑几部……,这一部最好,那一部太烧脑了”
“儿子说不想学钢琴了,我应该同意吗,……有道理,你就这么跟他说吧”
“你说我今天的身体指标有一项不正常,它会带来什么样的问题”
“昨天同学聚会,你们都聊了什么”
……
这些交流有两个作用:
1、把你的学习收获配合学习记录共享给所有的AI分身
2、这些AI分身把它们工作或生活过程产生的新内容,反馈给你
虽然是与相关AI分身的对话,但所有AI分身都需要去理解所有的对话,去更新你的思维模型。
未来,你不但不会失去工作,反而拥有更多的工作,各种专业AI分身可以让你8小时的工作,产成8*N小时的工作量。
甚至未来的公司,都是AI分身之间进行交流协作、决策执行,每一个AI代表不同的员工,在AI权限范围内进行工作。
仔细想一想,我们不喜欢工作,并不是不喜欢工作本身,而是讨厌被迫以我们不喜欢的方式去工作,不喜欢没完没了的加班,不喜欢考勤和上下班浪费时间,不喜欢不懂装懂的上司,不喜欢公司的内部斗争……,所有你不喜欢的事,都让AI给你干了。
很多人会想,那公司直接让AI工作就行了,为什么要让你的AI分身工作,还要给你发工资?
要回答这个问题,就要回到人、AI分身和AI系统的区别。
三、AI也会出现认知偏差
《思考,快与慢》一书提出了很多关于人类决策时容易产生的偏差,比如:
1、确认偏误:当我们在持有一个信念时,更容易去寻找证据来支持这个信念,而忽视与之相矛盾的证据,比如阴谋论爱好者。
2、归纳类比错误:我们更习惯用已经存在的心智框架来解决新问题,导致我们忽略了新问题的独特性,比如,有一把锤子的人,看什么都像钉子。
3、可得性偏误:过分依赖容易想起的信息,而忽略那些不太容易想起但同样重要的信息,比如大家买基金时,倾向于买白天地铁广告里看过的。
4、近似启发式:使用简化决策过程的方法,导致我们做出不理性的判断,比如看到胖子就觉得人家懒,看到东北人就认为对方很能侃。
5、决策疲劳:在做决策前花费太多的时间和精力,这会导致我们疲惫不堪,最终反而做出不理性的决策。
理论上说,AI决策体系,可以降低这个偏差,使决策的质量更高。所以未来每一个人的本尊负责学习和思考,AI分身负责判断决策与执行。
但实际上,从ChatGPT的使用体验上看,AI的决策跟人类一样,并不完美,上面的五个人类常见的认知偏差,我发现它同样也会出现,这使得它一定程度上很像人类。
我问了ChatGPT,它很大方地承认了自己会犯的几种错误及原因,正是前面的第二、三、四类偏差:
可得性偏误:AI可能过度依赖容易访问和处理的数据(可能是考虑成本和响应速度),而忽略那些更加难以获取但同样重要的信息。
归纳类比错误:AI系统可能过度依赖现有的模型和算法,而忽略新问题的独特特征。
近似启发式:AI可能使用简化决策过程的方法,但这些方法有时会导致不理性的决策。
但AI不会有第五个认知偏差,不会出现决策疲劳的现象。这正是AI决策目前看起来的最大意义——它并不需要做得比人类正确,只需要做到比人类高效。
但它会不会犯第一个偏差——确认偏误呢?
如果从定义看,AI本身没有信念,不会被信念所影响判断,但如果是AI分身,它是有信念的,来自本尊,因此会复制本尊的认知偏差。
但这恰恰证明了AI分身比大的AI系统更有意义,如果人是完美的,那必然每个人都是一样的,就没有分身的概念了。
人类的错误不仅仅是错误,更是生命体持续进化的动力。
四、经常犯错误的AI分身,比完美的AI更有意义
生物学家理查德·道金斯有一本介绍进化论的书《盲眼的钟表匠》,书中为了解释像生命体的器官这种极其复杂的东西是如何“进化”出来的,举了一个很有意思的例子:
如果给猴子一台打字机,让它乱敲,理论上,只要时间足够,它也能打出莎士比亚的一行诗句,但概率极低。比如《哈姆雷特》里的“Methinks it is like a weasel(我觉得像一只黄鼠狼)”,这28个字符,它正确的概率是1/27的28次方。
但如果你设计一个让电脑自我学习的程序,就不一样了,这个程序是这样的:
1、初始模型:电脑先随机打出一行28个字符,作为句子A;
2、复制突变:对这行字符进行复制,复制的过程中随机改变几个字符,作为句子B;
4、持续进化:对胜出的这一句再进行复制突变,再进行A/B句比对,再留下更相似的一句……
就这样循环下去,要多久就能得到《哈姆雷特》的那个句子呢?
作者亲自做了这个实验,第一次是43代,第二次是61代,第三次是41代,我不太清楚这个“代”的意思,应该是一个很快的时间,作者用80年代初的计算机,11秒得出结果。
这就是进化的核心机制——“积累选择”,无论每一步的改变多么微小,只要有优胜劣汰的机制,积累下去,就会形成惊人的变化。
这个“积累选择”的核心机制中,最重要的是“复制突变”,所谓突变,实际上就是“出错了”,这也是进化这两个字给人造成的误解,突变本身是没有方向的,每一次错误都是随机的。
所以说,犯错才是生命体进化的动力。
五、参差多态乃世界本源
AI具有超级计算能力和无限的存储容量,可以通过更广泛全面的学习、更复杂精细的算法,来减少人类的认知偏差的影响。
但我们不需要一个完美的AI系统,错误才是人类进步的动力,这个星球上最复杂的东西,都是“出错”后进化而来,都不是主动学习、主动设计出来的。
未来的AI分身是个性化的,将尽可能保持本尊的思维模式,会犯只有你会犯的错误,包括一些思维偏差,只是通过AI大系统,保证这些偏差不出现致命的、不可挽回的错误。
对于公司而言,正因为每一个人都有自己独特的思维方式,才能产生无法预料的结果,而公司与公司之间的竞争,正是基于这些个性化的差异点,而不是共同的因素。
来源 | 人神共奋(ID:tongyipaocha)
作者 | 人神共奋;编辑 | 时刻
内容仅代表作者独立观点,不代表早读课立场
微信扫码关注该文公众号作者