用了一下,不爱了
在短短两个月的时间里,ChatGPT用户数破亿,它使人期待、惊诧、震撼、焦虑乃至恐惧。
于是,许多问题浮现:
ChatGPT会不会让自己失业?也许AI还没有办法取代真正有创造性的工作,但是ChatGPT在应对日常工作中的同质化文本时,远比普通人有效率、有逻辑,“AI对人的替代”,好像又更近了一步。
再有,ChatGPT能否代替人来提供情绪价值?和ChatGPT聊天,就像是在和一个真人对话。它的拟人化已经到了以假乱真的地步。如果继续发展下去,也许就像电影《Her》里那样,在人与人情感愈发疏离的当代社会,反倒是AI、而不是人,成为了人的情感慰藉。
《Her》剧照
未来,如果社会中的一切都可以交给AI完成,当中没有了人的话,很难说这一切的意义究竟是什么。这事关人类社会得以成立的根本伦理。在人工智能时代脚步临近之际,人类社会的基本伦理原则或伦理秩序是否会遭受挑战?
当AI统摄一切,它极有可能成为新的“数字利维坦”,它的特性是什么,人们又如何逃避它的宰制?
围绕上述问题,南风窗专访了南京大学社会学系的郑作彧教授。
郑作彧教授
在他看来,ChatGPT的喧嚣背后,是人类社会固有问题的复现。面对冰冷的人工智能,他呼唤人的情感与生命体验的勃发与表达,只有成为一个丰富多彩、独一无二的个体,才有可能应对以ChatGPT为代表的人工智能的挑战。
以下是郑作彧教授的口述。
怎么看待Chat GPT?
我对ChatGPT的感受不是担忧或欢迎,而是觉得好笑。ChatGPT或Metaverse(元宇宙),现在都还只是处于画饼阶段而已。
像Metaverse不但从来没有实现过,反而让扎克伯格钱亏到看起来毫无希望的事实(编者注:2022年Meta元宇宙业务部门营业亏损达137.2 亿美元。)。或是ChatGPT一方面成功从微软拉到超多投资,另一方面之后要收费,也就是说现在只是开发试用阶段,但OpenAI已经赚到超多流量和金钱,爽到翻掉的事实,大家好像都没有看到了。一些企业画大饼,民众却当真了,然后随之起舞,还挺搞笑的。
扎克伯格 / 视觉中国
本质上,ChatGPT和苹果的Siri、微软的Cortana、小米的小爱同学,或是各种电信或银行的电话机器人客服,都是语言处理机器。它们都是将输入的语言或语音通过处理后,输出相应的语言或语音的系统。
但ChatGPT作为GPT-3.5模型下的一项产品。首先,它的输出结果都来自已经存在的文字资料库;其次,它的处理模式基于被规定好的需求。所以从某方面来说,乔姆斯基说ChatGPT是高科技的剽窃是没毛病的。
今天很多声音担心,这样会让学生用几近剽窃的方式来写报告,让学者用几近剽窃的方式来写论文。但好玩的是,就我的经验来看,绝大多数的学生和学者在生产所谓的报告和论文时,就已经在采取ChatGPT的做法了。
今天,一些学生和所谓学者在写东西的时候,就是上网找已经存在的文字来进行语句拼贴工作而已。他们可能并不懂自己在写什么,就算懂也对自己写的东西并没有任何真正来自灵魂且能触动灵魂的想法。
这些人所做的事本来就跟ChatGPT没有什么两样,所以ChatGPT并没有取代这些人,而是今天ChatGPT的出现让我们终于可以把该由ChatGPT做的事情还给了ChatGPT而已。
《我,机器人》剧照
这个逻辑也适用在很多方面。已故的美国人类学家格雷伯有本很有名的书,中译为《毫无意义的工作》,告诉我们今天社会中的工作岗位有很高的比例其实都是“狗屁工作”。
这些工作之所以狗屁,有很多是因为它的内容本来就毫无灵魂、毫无人性,它本来就不应该让人类做,只是因为我们暂时没有其他东西能做、所以暂时让人来做而已。等到哪天我们例如发明出什么可以做这种事的科技了,那我们就只是终于把这个工作还给了这个科技。
所以,我觉得,会想用ChatGPT写论文的人就算没有ChatGPT也不会就比较有创造力,这些人本来就已经是人肉ChatGPT。而且学生用ChatGPT写作业,所谓的学者用ChatGPT写论文,我们也可以用ChatGPT来改作业,用ChatGPT来审稿。
日内瓦当地教师在ChatGpt研讨会上 / 视觉中国
但人类不会允许这种事发生,至少现在应该还不会允许。
因为如果论文由ChatGPT写,由ChatGPT审,最终由ChatGPT刊登,那么就意味着人在这里被完全排除掉了。人类终究想打造的是人类的社会。
所以改作业、审稿、刊登等等最终决策,可以想见至少目前在道德上会认为最终还是需要由人类来做,不会交给ChatGPT。
我有一个很不好的经验,银行(或之类的)打电话给我,我接起来后是一个机器语音说“请问您是XXX先生吗”。我极度厌恶这种语音来电,因为我觉得如果我回答“是”,我好像就变成机器人了。
但如果我想知道接下来是什么事,我就得说“是”,我不能抱怨、怒骂,因为机器语音不会理会我的任何情绪,机器不会为我的情感负责。ChatGPT的其中一项麻烦就在这里。
老师之所以会对学生用ChatGPT交上来的论文感到极度排斥,期刊之所以会禁止ChatGPT写出来的论文,不是因为这些文章是剽窃或拼贴的,而是因为老师或期刊编辑必须用灵魂、用生命来进行成绩决策或刊登决策,而ChatGPT的文本会迫使老师或期刊编辑被剥夺灵魂与生命。
ChatGpt依赖于语言模型 /《 Her》剧照
学生的报告、学者的论文,不论生产方式是什么,在没有ChatGPT的时候,至少都是学生和学者耗费生命一个字一个字打出来(或剪贴出来)的,所以至少当中有生命的足迹,让老师或期刊编辑至少觉得值得用生命来回应。
但ChatGPT不具有任何情感,还会剥夺读者的情感。现代社会最珍贵而且也越来越稀有的人性不是理性与智慧,而是情感与热爱。人类阅读文字,是为了获得情感与热爱,但ChatGPT文本却恰恰会消灭读者的情感与热爱,消灭想追求人性的人的人性,否定所有追求人性的努力。
它会怎么改变世界?
如果深究ChatGPT原理的话,会发现其实ChatGPT文本并不真的是ChatGPT自己做出来的。
我前面提到,ChatGPT对已有的文字库进行处理的模式,包括必须规避掉会产生任何在政治、道德等方面会产生冲突后果的不当用字遣词,例如各种歧视文辞。
但文辞的歧视意涵还会根据文意脉络或社会文化的情境而有所不同,它来源于情感。
但这是机器学习没办法解决的事,因为机器学习基于算法、不基于情感。这是ChatGPT的局限所在。
ChatGPT的深度学习方式采用的是“监督学习”与“半监督学习”,简单来说就是ChatGPT的文字处理其实需要后台有人──也就是所谓的数据标注员──来审阅,进行所谓的“数据标注”的工作。
数据标注员的工作非常血汗。根据一篇报道,OpenAI雇佣的是时薪不到2美元的肯尼亚外包劳工来负责数据标注。也就是说,很讽刺的是,终结某种狗屁工作的ChatGPT本身,又再生产出了可能很多种的狗屁工作。其实任何新科技的发明都是如此。
不过这不是重点,重点是,ChatGPT文本不只来自已经存在的文字,而且还是来自被审查过的已经存在的文字。
ChatGPT虽然能拼贴,但它无法拼贴出任何没被说过或被审查掉的文字。
然而从人类历史中我们已经可以知道,真正可以推动历史转轮、改变社会生活的文本,恰恰就是没被说出来过、或是审查工作想消灭掉的那些话。
《Her》剧照
所谓的创造性有很多种,拼贴出的话语是一种,前所未见、甚至让现有秩序想消灭的话语也是一种,但对人类历史来说真正能带来改变的是后一种,而且恰恰这一种是ChatGPT不能做到的事。
也就是说,如果ChatGPT真的普及开来了、真的为世界带来什么改变,那么它能带来的改变很矛盾地恰恰就在于它扼杀了世界的改变的可能性。
今天有人会认为ChatGPT有创造性,有人则认为ChatGPT没有创造性。我觉得创造性有很多不同的类别,有些ChatGPT有,有些ChatGPT没有、甚至会扼杀。不过它有的和扼杀的,到底哪个比较重要,我倒是不予置评。有些人不希望世界改变,但有的希望改变,这个不同的立场有不同的偏好。
不过,总结来说,ChatGPT现阶段“画饼”成分居多,有点过度炒作了。我不反对它当中是有一些值得一提的话题,如我上述的分析,尤其是“损害读者的情感与人性”和“损害社会的改变可能性”这两点。
我想再三强调,我们应该对企业画的大饼保持谨慎意识,不要轻易随之起舞,否则很容易被企业营销话术带偏方向,忽略很多真正的问题。
AI正在排除人吗?
现在没有足够的线索让我去预估ChatGPT或人工智能再往下演化的趋势。但ChatGPT只是近些年科技排除人的其中一个例子。如果从排除的角度来说,最极致的是舍弃地球。现在已经有人在做这件事情了,例如马斯克,他最想做的事就是把地球给舍弃掉。
在我看来,ChatGPT和过去人工智能不一样的地方在于,它有点颠覆所谓的图灵测试。
图灵测试意指当我们面对一个是由机器产出的文本时,如果无法判断这个文本究竟是由人还是由机器产出的,那么就表示这个机器足够智能了。
图灵测试是一种测试机器是不是具备人类智能的方法 /《机械姬》剧照
但是,从AlphaGO到现在的ChatGPT,慢慢开始出现一个现象,就是今天的图灵测试不再是让人类面对一个文本时,无法判断它是人还是机器产生的;相反,今天的新图灵测试的重点在于我们已经知道它是机器了,但我们明明知道它是机器的情况下却越来越不相信它是机器!这是新图灵测试很重要的一个特点。
所以我觉得,当代人对人工智能范畴的判断标准已经出现了转变,我们明知道它是机器,但是看到它产出的内容还是会产生鸡皮疙瘩。
我在讲“人的排除”时,思考的起点不是人工智能。我会说,人工智能是当代社会的排除逻辑之下的一个产物。所谓的“排除”是一个社会运作的根本逻辑,它表现在很多地方,而排除逻辑最初的出现,就在于人对客观性的追求。
以前的人会觉得要获得真理,我们必须听从灵魂所讲出的话,但是科学主义兴起后,我们会觉得不存在人的东西是自然的、好的、客观的。
《我。机器人》剧照
今天我们常会听到有一种“学科鄙视链”,理工科鄙视社科,社科鄙视文科。这种鄙视的产生就是认为能把人排除掉的知识才是真正的知识。
当我们老是说“决策必须基于科学证据”的时候,其实就是在说决策必须把人排除掉。
所谓的这种把人排除掉的逻辑不是一件好事,因为我们总是会觉得人很重要。为什么人很重要?因为每个人的生命都是独一无二的。
人类出生之后,必定会占据一个空间,一个只属于他自己的空间,他的空间会随着这个人的生命历程经历各种事情,产生许多情感,从而产生独一无二性的人生。
当我们看到一个人灿烂的笑,我们的心情会跟着愉悦起来;当我们看到一个人伤心地哭泣,我们也会跟着鼻酸。数学不会产生共鸣,会让我哭的绝对不是数学,如果数学让我哭,那只会是因为考试时我看到一堆真的答不出来的数学题。能感动到我、让我想哭的,只有情感。
《机械姬》剧照
之所以文字艺术创作能打动人心,是因为任何的文字艺术创作,理想上都是创作者基于自身独一无二的体验而展现出来的情感表达,并且这样的生命情感也让所有欣赏者想到自己独一无二的生命情感,从而获得无比的感动。
但ChatGPT的文字产出不是来自独一无二的生命体验,而是经过审查的现存字词拼贴。
现代社会出于各种原因产生了一个现象,就是尝试把人给同质化。
从小我们就被强迫要进入学校学习一样的东西,然后用“成绩”这种单一标准来衡量学习成果。
大学毕业之后,我们被用“就业率”或“升学率”这种单一标准来要求人生决策。而且我们也真的就认同这些单一标准,以这些标准作为生活的目的。
《西部世界》剧照
我常常觉得很奇怪,上天这么努力把我们每个人的长相都造得这么独一无二了,为什么现代人却总是想要活出和别人一样的人生呢?
而这样的结果就是社会上绝大多数人从想法观念到工作能力是同质的,就都只能做别人规定好的事,也就是所谓狗屁工作。
之所以现代社会想把人同质化的其中一项原因,就是有钱有权的人还没有发明出可以做狗屁工作的科技,所以想办法把人培养成机器。
但有钱有权的人最终的目的从来就不是把人培养成机器,而是制造出机器。
所以,我们总有一天会把这些工作“还给”机器,同时制造出新的狗屁工作,然后把人放到新的狗屁工作岗位上。
如果人对AI产生情感怎么办?
人对非人的东西产生情感自古有之。宠物就很典型,或是所谓的触景生情、睹物思人。这不是不好的事情,情感慰藉本来就不必定从人的身上得到。所以当ChatGPT或更广泛的AI越来越像人,人对它们投射情感是很有可能的。
我觉得危险的是,我们对小猫小狗产生情感、对某些物品产生情感,与我们对AI产生情感有很大的不同。
AI是一种回馈系统,而一般的物不是回馈系统。简单来说,猫狗等生命或其他事物,原则上并不会以人类语言来回应人。但AI会以人类语言来回应人。
之所以一个非人的东西可以用人类语言来回应人是一件很重要的事,是因为这当中牵涉到“负责”这件事。
《银翼杀手2049》剧照
最近网络上有一个段子,说ChatGPT虽然厉害,但不能做到的一件事是不能帮人坐牢。
我觉得这不只是段子,而是精准地凸显出“负责”这个要点。为什么ChatGPT不能坐牢,只有人才可以坐牢?
因为机器不能负起责任,只有人才可以负起责任。所谓的负起责任,多少意味着有一种赔偿的意思在里面。坐牢其实就是赔偿的一种。只有赔偿,才可能带来道德正义。
为什么赔偿可以带来道德正义?在于我刚说的,人的生命是独一无二的。当我因为其他人遭受了损失而要那个人来赔偿我时,就意指我有一段生命时间白过了,所以我要那个人也付出一段生命时间来弥补我。
像今天,“负责”常常是以赔钱的方式进行,之所以赔钱可以是一种负责、赔偿,是因为一个人的生命就那么长,能赚到的钱也有限,所以赔钱就是我要那个人补偿我失去的生命。只有生命才可以承担责任,而唯有责任可以被承担,我们社会的道德公正才得以可能。
《西部世界》剧照
但机器没有生命,所以不能去承担任何责任。我们不能叫机器去坐牢,因为坐牢对机器来说不痛不痒,并不耗费它所不拥有的独一无二的生命。
它明明就在对我说话,会牵动我的情感,但它却不对我的情感负责。如果没有生命来承担责任,那么这个社会的公平、正义、道德,都不可能存在。
所以,如果我们把ChatGPT当作一种情感来源,一个很大的危险在于它没有办法承担责任,所以没有办法承担道德。
人类社会的伦理观念会被颠覆吗?
德国学者亚妮娜·罗前一阵子写了本书叫《机器人伦理》。好玩的是,虽然号称机器人伦理,但书里提到了很重要的一点是,机器人或人工智能的伦理恰恰不在于机器人或人工智能。因为人工智能终究是由人打造出来,放到人类社会中被使用的。如果我们认为打造出来的是一个纯AI的世界的话,那就犯了马克思所谓的商品拜物教的毛病。
在马克思之前,人们看到一件商品,会从它的价格、构成、成本去看待其价值。但是马克思指出,所有的商品背后都有劳动力的耗费,是人们耗费自己的生命创造出来的。而这些劳工是在一个不平等的生产关系中被剥削的。如果我们没有看到产品背后的那种不公平的生产关系,而只是看到产品本身的话,我们会错失真正的问题。
AI也是一样,它终究是人造出来的。如果我们直接去看AI,就会忽略掉AI背后的剥削机制。前面我也提到ChatGPT与肯尼亚工人的事情。ChatGPT越盛行,血汗工厂就越血汗,而这是我们应该真正关心的问题。
《机器管家》剧照
另一方面,我们还要去考虑ChatGPT最终使谁获利。我举个例子,一个教授和一个博士生同时用ChatGPT去写一篇论文,被刊登的可能性是不一样的,这两个人最终得到的利益也是不一样的。这不是ChatGPT能决定的。
再举一例,ChatGPT有个很好用的功能是可以自动生成商业回信。因为这种工作内容很程式化,所以是典型的狗屁工作,可以全部让ChatGPT来做。但是谁需要回商业函件?大老板还是底下的小员工?肯定是小员工。真正的大老板是不需要去用ChatGPT的,真正会用到ChatGPT的其实是那些底层员工。
所以,今天很多关于ChatGPT的讨论会去担心它取代了人,但这种说法都忽略了究竟所谓的“人”是谁?如果它真的有某种取代性,那它只会去取代底层劳工,而不会取代大富豪。
这清楚表明了人工智能的伦理问题不出在人工智能上,而是出在人工智能所处的社会关系中。
所以这里再强调一次,如果我们认为AI本身会产生伦理问题,那么我们就会犯马克思提到的商品拜物教同样的毛病。
《机械姬》剧照
不过,一些新科技的出现的确会改变人类社会的伦理。例如能源、计算机技术的发展。就像网络霸凌,这是过去没有的新现象。但科技不是同质的。一些科技成果的出现,可能会被炒作得很新,但背后的本质其实是一个旧现象,就像ChatGPT我认为就是一个旧现象。
当年iPhone推出siri的时候也曾造成轰动,当时也有人说它会颠覆人们的生活,但是到现在人的生活也没有被siri颠覆。
当然,这不是说ChatGPT没有新的东西,但那是程度上的递进,而不是本质的颠覆。它的出现,只是凸显了一些原本就存在的问题。
就像我说的,很多学生其实早就把自己当作机器人,或者我们可以反过来讲,学生的写作方式才是ChatGPT出现的神预言。
我们怎么逃离它的宰制?
我曾提出,人工智能可能会成为新的数字利维坦。不过,在大部分情况下,政治利维坦仍然是至高无上的,数字利维坦仅可能在一些生活领域中有比较大的权力。数字利维坦最特别的地方在于,它遵循计算机的0-1法则。我们使用者要么接受,要么不接受。
《我,机器人》剧照
最典型的例子是当我们要使用某一项数字服务的时候,我们必须“点一下”,同意它收集我们的资料、同意种种条款。它不尊重所谓的人性,它只考虑被按下的是哪一个键,然后接下来的步骤该做什么。
其实,每一个键按下去后,都会对我们的人生带来一些影响。如果我们不是通过数字利维坦来进行决策的话,必然都涉及人与人之间的协商,甚至是冲突。对人类来说,冲突有时是一件好事。但是数字利维坦就是不管你了。你按是,那就是接受;按否,那就拉倒,没有中间选项。我不可能和它吵一架,不能表达我的任何情绪,它不管你。所以数字利维坦有一个很重要的特性就是,它不在乎人的目的。
特别要注意的是。未来,架在我们头上的不是AI,是人。所以解铃还须系铃“人”。如果人不去解决这件事情的话,我们怎么逃离?我会说,这不可逃离。这不是悲观,而是事实。
如果我们没有从人的方向去试图解决这件事,而是从机器上找方法,那不可能逃离的,因为这就落入了“机器拜物教”的陷阱当中,那怎么可能逃?这是找错了方向。
《机械姬》剧照
我现在也在思考人如何逃避AI的宰制,但还没有很确切的答案。我可以提供一个思路,为什么使用app前要勾选一大堆条款规则,因为AI的宰制是摆脱冲突、规避责任的,所以它才会用一堆的法律条文逼我们同意。没有人肯负责,才是这里面最主要的问题。
法律条文的矛盾在于,它虽然订出了责任归属的标准,但它也同时制造出了规避责任的方式。用法律来规避责任是所有现代企业(尤其是互联网或人工智能企业)最狡诈的风险回避手段。
沿着这个逻辑思考,我们如果要使AI朝着健康的方向发展,那么要构建一个更合理、更负责、更规则的社会,我们都要愿意扛起责任。但这个想法其实很难实现。
编辑 | 苏米
新媒体编辑 | 吴擎
排版 | 八斤
南风窗新媒体 出品
未经授权 禁止转载
欢迎分享至 朋友圈
投稿、投简历:[email protected]
广告、商务合作:
handaxiao222
记得星标!点点在看让理性的声音传得更远
微信扫码关注该文公众号作者