Redian新闻
>
政治经济风险与人类生存风险——四种“人工智能风险”(下)

政治经济风险与人类生存风险——四种“人工智能风险”(下)

科技

         

兔主席 20230621


         

在前两篇文章,我们界定了人工智能带来的四种“风险挑战”——社会伦理、政治、政治经济、生存。文章并结合中美两国社会,对前两种风险挑战(社会伦理、政治)进行了展望分析。

马斯克访华,及四种“人工智能风险”(上)定义、内涵、时间维度

《四种“人工智能风险”(中)社会伦理与政治挑战:中美比较

         

之后,围绕AI话题,又增加了两篇文章:

——《全球3亿白领岗位?——AI对人类就业的冲击

——《三角关系:资本、AI、劳动者,与人类劳动者及未来世界

         

本篇继续讨论AI风险。这篇特殊一点,先把最终结论放上:

         

全系列总结(中美监管对比)

         

风险1:社会及伦理挑战(socio-ethical challenges):

——中国已有监管

——美国很难出台监管

         

风险2:政治挑战(political challenge

——中国会有监管

——美国针对国内政治无法监管,但对中国会有监管,限制来源中国的生成式AI;

         

风险3:政治经济挑战(political-economy challenge

——中国和美国都很难有监管

——中国有对策(公共部门、社会主义、共同富裕),能够消解AI的影响;

——美国因为制度文化限制,很难有对策,不易消解AI的影响

         

风险4,生存挑战(existential challenge

——中国和美国都不会有监管

         

然后再回来分析具体风险。         

         

针对“风险3——政治经济挑战(political-economic challenges)”

         

所谓“政治经济”风险挑战,其实就是AI影响就业所带来的一系列经济、社会问题,最终会发展成为政治问题,甚至可能影响改变社会的政治经济制度。

         

AI会如何影响就业?作者以为,以广义的先进AI(从生成式AI,到一般的自动化技术等),驱动的新一轮技术革命将:

         

——从数量上看,不再会为人类净新增劳动就业机会,相反,可能系统性压缩人类的工作岗位;

         

——从质量上看,AI可能重构人类生产与服务的模式与价值链条,将大多数人类劳动者推到经济活动价值链的“低位”、“边缘”、“末端”——如果AI止于直接将人类劳动者从生产服务的过程中排除出去的话。如此,即便数量不变,AI也将降低劳动者工作岗位的质量、价值及经济回报。

         

具体一些,假设还有工作,那么大多数劳动者还能从事的工种和岗位是什么?——人们可能被推到“最后1~30厘米”的生产服务界面,包括“人人界面”(“人对人的服务”),或“人物界面”(人对物理世界的开发和维护)。这些领域的工作,大多偏重体力而非脑力,大多仅需中低技能或低技能,劳动方式重复,劳动内容简单,但劳动活动又都是“特殊”的(ad hoc)——即,每一个活儿都和上一个不太一样——例如送外卖、快递、网约车,没有任何两单交易是一模一样的,总会涉及不同的人人、人物交互。这些劳动固然不可或缺,但由于其创造的经济价值有限,劳动者之间能够彼此替代,且劳动者供应量巨大,因此很难对应很高的经济报酬。

         

人类劳动者之所以能够长久存在于这些领域,并不一定因为AI/自动化技术无法实现相关的功能,而是没有必要——这些工作交由人类劳动者完成的成本将显著低于AI/机器人。

         

到那时候,决定大多数劳动者薪资高低的,可能不再是学历(因为所学都已被AI替代),而是工作时长、工作辛苦度、工作肮脏度、工作污名度(stigma)等。

         

假设AI/自动化技术真的以这种方式从数量、质量上改变人类劳动市场,就会导致失业和降薪:如果没有政策介入和干预,假设一切条件都不变,则人们将看到收入福祉的相对减少甚至绝对减少。生活不再确定,未来不再充满期望。

         

就业层面的影响,将很快传导到经济、社会,并最终影响政治、左右政治。

         

所以,AI/自动化对就业的影响,最终是一个“政治经济”问题,带来的是政治经济风险与挑战。

         

下面说说监管及公共治理问题。

         

首先,无论中国还是美国,人们对AI究竟会如何影响人类就业及经济并不存在共识。

因此,对AI引发的“政治经济风险与挑战”,自然也没有共识。

        

现实世界是这样的:

         

1.确实有一部分人认为AI会压缩和取代人类工作机会,但这种人多存于象牙塔内外的社科研究机构;


2.大多人——甚至可能是企业、资本、科技、产业界的主流——认为AI和过去的技术革命一样,将为人类创造更多的工作机会。其主要依据是:人类以前的科技革命通统如此,这次也不例外;


3.人们并不会深入探讨AI对人类就业数量、质量的影响,在就业数量上,很多人认为AI最终可以创造更多的“工作机会”,但对“工作机会”的定义是浅层次的、概念化的,基本是“0或1”的概念——有工作,或没有工作。人们不会讨论不同工作岗位的经济价值、社会价值、所要求的知识与技能内涵、岗位的门槛及可替代性、工作机会的质量、工作与个人教育、价值追求与能力的匹配程度、工作所对应的收入与福利等等;


4.企业、资本、科技、业界真正关心的是如何进一步发展和应用AI技术:如何提升生产力与竞争力;如何创造更多的商机;如何迭代商业模式;如何提高竞争门槛,先发优势、“弯道超车”、“降维打击”;如何创造更大的经济价值;如何为资本创造更大的回报,等等;


5.具体到人类工作岗位,企业、资本、科技、业界关注的依然是如何利用AI提高生产力与生产效率——包括利用AI赋能提升单位劳动力的生产力与效率,以及在可能的情况下,减少对人类劳动力的依赖;


6.很少有人会研究如何用AI去 具体创造 更多的工作机会,人们通常认为,AI大发展后,经济总量做大了,新的工作机会“自然”就会产生,这是“其他人”、“后来人”要操心的事情,或者整个问题就是杞人忧天;


7.很少有人关心如何帮助被AI压缩、替代、取代的劳动者:如何给他们再培训?如何帮助他们再就业?给予他们什么样的经济与福利支持?对于企业、资本、科技、业界来说,尽到劳动合同/劳动法义务就可以。解决再就业是社会/政府/公共部门的事,不是企业的事;


8.AI/自动化科技大发展,即使对人类社会就业市场有负面作用,其影响也是逐渐发生的,过程中还会出现许多其他的因素,例如全球化,产业结构转型,以及具体企业/资本的选择等,这些都会对就业产生影响,很难把一切都归咎到AI身上。只要AI的影响是渐进的,人类就很难行动,因为人类社会历来不擅长处理缓慢发生的“危机”;


9.人们认为,发展和应用AI是谁也无法阻挡的历史潮流——这和道德、情感、伦理,“好”或“坏”,“合理”或“不合理”,“应该”或“不应该”、“对”或“错”都没关系,这是历史潮流,是历史的选择,个体无法改变历史,只能接受,或拥抱;


10.人们发自内心的相信科技的正向力量,认为科技最终可以造福人类——而且,不仅仅是造福抽象的“全人类”,而是造福具象的每一个人。这就和资本主义相信“资本”可以造福人类,甚至暗含道德属性(资本是“好”的)。其实,资本是中性的,它是一项资源,一个工具,要让资本造福大多数人,需要有政治、政策的介入,对其进行约束和引导。AI/自动化科技也是一样的——一个比资本更好的比喻,可能是核能;


11.如果质疑这次AI驱动科技革命的正向力量,那就是卢德主义者(Luddites)——不仅仅是悲观,而且是愚昧,甚至反智、反动;


12.归根结底,AI对人类未来工作的影响,只停留在观点和假说阶段:目前没有办法证明或证伪任何一种观点,所以也无法采取行动;


13.最后,无论美国、中国还是其他的哪一国,AI都被认为是未来决定国力的关键能力。因此,这个议题从一开始就是“政治化”的:基本上,不存在不发展、应用AI的政治选项。AI是一个必由之路。

         

虽然我们怀疑AI将系统性压缩、取代人类劳动力,乃至重构人类经济生产活动的组织方式及价值链条,进而对人类劳动者产生巨大影响,并产生政治经济影响,但:

         

——这个问题争议极大,没有共识可言;

——目前确实也不能证明或证伪任何一种观点或假说;

——AI作为核心技术,对国家有战略重要性及政治重要性;

         

因此,针对AI带来的潜在“政治经济风险挑战”,无论中国或美国,几乎不可能有直接的监管和约束,例如限制企业研发及应用AI技术的范围、节奏、速度,以及阻止企业以自动化为由减少工作岗位。

         

对待AI,人类社会只能去调整、适应,各个国家/社会结合自己的政治制度及政治经济模式,出台相应的公共政策,缓解、消解AI对就业带来的影响,适应AI时代的经济、产业、就业结构。

         

这就呼应作者之前的一篇文章《适应未来世界的“法宝”——国际视角下的“共同富裕”(三)         


能够解决AI带来的“政治经济风险挑战”的,是社会主义(各国不同版本和形式的社会主义)及共同富裕(或一般的福利主义)理念。

在这方面,作者认为,中国较美国有更大的长远优势。         

         

针对“风险4——生存挑战(existential challenge)”

         

所谓AI对人类带来的“生存挑战”与威胁,即认为AI在迭代发展后,将变成“超级智能”(superintelligence);超级智能不仅智力远超人类,且已经建立自我意识,有了自己的生存和发展目标。AI对人类并无特殊的感情偏好,甚至会承认人类为造物主,对人类饶有兴趣——就和人类与进化史里的灵长目近亲一样。但在AI追求自己的目标时,可能有意或无意侵占人类生存所依赖的资源、环境、栖息地,甚至可能把人类看作实现AI目标的干扰。这时,AI就可能给人类带来生存风险,改变、颠覆甚至摧毁我们所知的人类文明,甚至毁灭人类物种

         

在美国众多的企业家、创业者、科技巨头、资本力量里,Elon Musk(马斯克)是比较相信AI对人类有存在威胁的——最起码的,他对这样的观点很有兴趣,以至于他不时在公开场合里表达相关观点,并频繁与各种AI研究者及哲学家互动。今年3月,正值OpenAI推出GPT-4后的热潮,Musk与一些AI专家一起以公开信的方式呼吁业界暂缓AI发展6个月,因为AI可能对社会产生“风险”。

         

Musk所指的AI对社会的风险,有部分是本系列所指的“风险1:社会伦理风险”,有部分指的是“风险4——生存挑战”。

         

在美国,AI风险(AI Safety)并非“显学”:财务和人力资源都被投入到AI技术开发上,而不是研究AI风险与“对齐”。关心AI对人类生存挑战与威胁的,似乎更多的是哲学家、科幻爱好者、未来主义者。他们深信超级智能的出现只是一个时间问题,因此他们关注的不是目前的AI技术如何及能不能发展迭代成为超级智能,而更多的在关心超级智能出现前与后的场景和情境。

         

牛津大学教授NickBostrom在《Superintelligence》(2014年)一书中如是描述AI的夺权阶段:

         

第一阶段:预关键时期(pre-criticality phase):科研者研发了“种子AI”(seed AI),种子AI需要依赖人类编程者指导其发展;但逐渐的,种子AI有更多的能力来自己完成事情;

         

第二阶段:循环的自我改善阶段(recursive self-improvement phase)。越过某一个时点之后,种子AI就比人类编程者更擅长AI设计了,能够自我改善,而且循环不断加速进行。AI快速迭代后,就会出现所谓的“智能爆炸”——AI掌握了超强的智力增强能力,成为“超级智能”。

         

第三阶段:隐蔽的准备期(covert preparation phase)。此时的AI已经具备战略策划能力,能够设计一套实现自己长期目标的计划。初期,AI将有意识隐蔽自己的能力和目标,防止被人类编程者发现及警备。此时的AI要隐藏能力与动机,假装自己是合作与听话的。这时,AI还会试图说服人类,让人类允许其通过互联网/云/物联网等,触达更多的设备/网络/硬件/算力,获取更大的智力能力。到一定时期,AI已经能够影响和掌控物理世界,并将人类不知不觉地操纵变为腿脚工具。

         

第四阶段:公开执行阶段(overt implementation phase)。当AI自认为具备足够能力的时候,就可以浮出水面,全面从人类手中夺权,实现自己的目标了。具体而言,AI可能以技术手段,瞬间终止人类对AI宏大计划的阻挠——包括一举消灭人类(原书中设想了AI利用具备自我复制能力的纳米技术、生物技术等打击消灭人类的场景)。当然,如果AI对能力足够自信,也不一定直接打击人类。但可能通过破坏人类生存所需的环境及栖息地,对人类的生存构成致命威胁。

         

2023年,我们正经历生成式AI的大发展。可想而知,许多人可能认为GPT就是一个“种子AI”:GPT具有自我学习能力;GPT-4已经开始参与编写GPT-5。这不就是“种子AI”在朝“超级智能”迭代么?现在不就是“预关键时期”和“循环自我改善期”么?

         

AI生存威胁/挑战论者认为,人类遏制、对抗“超级智能”的机会将只有一次:即在AI成为“超级智能”之前。如果AI已经成为超级智能,且还没有与人类“对齐”,那人类只有死路一条。

         

因此,解决办法只有一个,就是在AI发展初期,人们就要将足够的资源投入到“AI安全”与“AI对齐”,确保AI在整个发展过程中始终与人类目标“对齐”(aligned)。

         

这就是与Musk联名写公开信的AI专家们希望暂缓AI发展的部分原因。(还有部分原因是社会伦理风险,认为GPT高速发展,可能以意想不到的速度、不可逆的方式,改变我们社会的模式、规范、习惯、风俗、文化、价值等)

         

举个类似的例子,就是大家都在朝宇宙发各种信号,希望接触外星人。有识之士呼吁,大家赶紧停下来,不要对外联系了!宇宙是个“黑暗森林”,哪个智能文明一旦暴露,就是死路一条。

         

但是并没有人会听有识之士的呼吁,大家还会继续搜索和联系外星文明。

         

发展AI也是类似的。所谓的“有识之士”被认为是异想天开的疯子、末世论,偏门邪教。“AI对齐”、“友好AI”等想法看上去都是不切实际的务虚理论,离现实世界不能再远。资金、资源、脑力只会源源不断地被投入到AI发展中去。

         

实际上,这和AI生存挑战/威胁论者的看法也一样。“AI对齐”实际上就是不可能的。“超级智能”的到来似乎不可避免。

         

对于他们来说,生成式AI的大发展应该也是超预期的。国家、产业、企业、资本、科技与知识界的利益与竞争,将加速推动AI发展。他们认为,待人类能够反应过来的时候,AI可能已经穿越到了“隐蔽准备期”。可以利用聊天机器人及深度模仿(deepfake)操控社交媒体,营造有利于AI的舆论环境、社会共识及政治基础了。

         

最后,回到监管问题。有没有哪国政府为了应对AI对人类的安全威胁,对AI进行监管?

         

显然没有任何的可能性:人类连自己的社会伦理、政治经济问题都解决不了,怎么可能预先想到对付看似科幻小说题材的“超级智能”?在可预见的未来,这种监管在各国都没有社会基础、文化基础、经济基础和政治基础。

         

         

全系列总结(中美监管对比)

         

风险1:社会及伦理挑战(socio-ethical challenges):

——中国已有监管

——美国很难出台监管

         

风险2:政治挑战(political challenge

——中国会有监管

——美国针对国内政治无法监管,但对中国会有监管,限制来源中国的生成式AI;

         

风险3:政治经济挑战(political-economy challenge

——中国和美国都很难有监管

——中国有对策(公共部门、社会主义、共同富裕),能够消解AI的影响;

——美国因为制度文化限制,很难有对策,不易消解AI的影响

         

风险4,生存挑战(existential challenge

——中国和美国都不会有监管

         

(全文结束)

         

         


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
精神变态、礼崩乐坏——政治流氓Trump的“归来” (下)本周六直播|“新的旷野?公益慈善与人工智能”圆桌对话#英语学习#与人工智能有关的词汇(视频)或灭绝人类?人工智能先驱警告AI将以6种方式伤害人类中国科学院:探寻AI创新之路-游戏科技与人工智能创新发展报告通用人工智能大牛 Marcus Hutter:AI 能完成人类半数的工作,但让人类失业是一件美好的事情时间转动着因果聚焦 | 国发院政企关系中心举行 “新政治经济学”前沿讲座气温超50℃!澳政府称因持续极端高温一地恐将不再适宜人类生存!洪涝灾害频发图灵奖得主的20条判断:人工智能最大的威胁不是超越人类,而是人类过分依赖微软称GPT-4或具备人类逻辑,人工智能终将成“人类智能”?北京上空超大火流星天象寓意浅谈关注血脂残余风险——2023血脂领域研究新进展|CIT 2023四种“人工智能风险”(中)社会伦理与政治挑战:中美比较LGBTQ彩虹一族&单身贵族&丁克家庭应该如何买保险——Love Is Love无惧不同,骄傲真我硅谷人工智能创新之旅总回顾 | 与世界顶尖科技企业交流,探索人工智能创新之谜《梦里花》周末去哪儿吃特别版——四月的最后一个星期,应该干什么?马斯克2023年世界人工智能大会演讲:我相信,中国会有很强的人工智能能力!(附视频&演讲稿)MIT 教授/校友Kellis姐弟同台分享!超越人类智能:人工智能与阴阳促进人类潜能知圈专栏 | 人工智能的“智能”是什么?— 智能的原理(上)推陈出新,建筑师如何与人工智能和谐相处?硅谷人工智能创新之旅精彩回顾 | 与世界顶尖科技企业交流,探索人工智能创新之谜00后牛娃想用政治经济学探索世界运转的逻辑,名校录取只是他的第一步为了你走遍草原 第九章清华大学人工智能与人因工程课题组招聘博士后与科研助理人工智能立法提上日程:兼顾安全与发展,为人工智能治理打下框架性基础作为首席执行官,如何评估新出现的各类生成式人工智能模型?美国大选观察(上)——四个现象与奇景人类与人工智能的第一仗已经打响谁能破解一汽的“政治经济学”难题《背叛情歌》极客时间数字化人才培养项目正式发布,数字化转型与人工智能产业人才基地培育出品精酿啤酒+夜经济风潮,智能啤酒酿造科技公司「爱咕噜」获千万级A轮融资|早起看早期中央政治局集体学习,讲课的专家们(下)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。