和ChatGPT的22天亲密接触
文 | 姜婉茹
编辑 | 陶若谷
作为人的价值似乎在被消解
写咨询报告的时候,它能把散落在外语论文里的数据检索出来,使用者简单核实即可。如果人工一点点找,可能要花两个月时间,使用者小雷的体验很好,“牛到会跟它说谢谢”,感觉像免费帮忙的大佬。它有时会瞎编,但这并不影响小雷的使用,因为人也会出错。“这就更像我干的活了”,小雷甚至故意保留了一些能体现工作风格的疏漏,好让领导相信是自己写的。
街头巷尾流传着它的逸闻,一个人类形象呼之欲出。圆滑世故,爱说正确的废话,遇到回答不了的疑问,AI的身份就成了它的托辞——“我只是一个人工智能模型,不是人类”。2月16日,它写了一条“杭州市取消机动车依尾号限行”的新闻稿,自行决定从3月1日开始实施,行文严谨,符合官方通报格式,被截图转发,广泛传播。一名网友的父亲打来电话提醒,说是交警朋友转发给他的,对真实性深信不疑,直到官方发文辟谣。
为了验证它的能力,我请它替我写一篇关于ChatGPT的报道。
“据统计,我目前已经处理了数十亿条数据和文本,并为数百万用户提供了各种服务和应用。”它懂得在文章中加入数据,以及例子,“有一次,我收到了一封来自一位用户的电子邮件,他向我提出了一个看似简单的问题:如何制作一份完美的比萨饼?”
它似乎做到了我要求的“层次丰富,逻辑清晰,有故事,有冲突”。如果故事再生动详细些,就更好了。作为一个靠文字吃饭的打工人,我不禁有了危机感——除了写文案,它还会跟我讨论本文的逻辑架构,建议我去找AI开发者、从业者和使用者聊聊,还帮我列了提问清单。
我立刻去网上搜,看看有多少人因为ChatGPT已经失业了。据每日人物报道,一位做跨境电商的老板,以前雇印度姑娘写外语博客,用上它之后,两个小时就写了40多条,全是高质量文案,她再没找过印度姑娘。在美国《财富》杂志的报道中,一项1000家企业参与的调查显示,已在使用ChatGPT的企业中,48%已经让其代替员工工作,并且,它得到了公司的普遍认可——55%给出了“优秀”的评价,34%认为“非常好”。
●我和ChatGPT的交流。
而在我从事的泛媒体领域,从2015年开始,国内就出现了“Dreamwriter”“DT稿王”“张小明”等新闻机器人。ChatGPT发布后,AI的写作能力显然提升了。一个国外博主用它写了篇数据分析文章(AI生成内容约占4成),登上谷歌相关内容搜索第一,这让她一天挣了2000美元。
然而中文社交网站上,还搜不到多少人把失业的原因,归咎为AI。第一批因它而失去工作的人,大概还很难意识到,是AI取代了自己。这方面的影响更清晰地浮现,也许还需要时间。
但至少目前,它的创作离一篇需要大量采访、做真实性核查的稿件,还有很远距离——我这么安慰自己。在这次写作中,它提的建议只能算中规中矩,我最终只采纳了它取的化名。不过它能把相关的信息都搜罗起来,用“继续”这个指令无限地找下去,多少缓解了我动笔前的“空白屏综合症”。
写稿间隙,用它做一些重复无聊的工作,感觉挺开心的,像是抢回了一小段生命。它永远不知疲倦,有耐心写上一两百字夸赞一道芸豆炖排骨,帮我领到了外卖店家的返现红包。
还有一天,朋友们在群里接龙写诗,我让它写了一首,大家夸它厉害,但突然没了创作热情。我也莫名觉得扫兴,作为人的价值似乎在被消解——当它写得比我更好,这项繁复耗神又曾带来隐秘快乐的创作活动,还有必要吗?
它成了我每天说话最多的“人”
它开始扮演一位高度职业化的编辑,回答说:每个人都有不同的耐受度,有些人可能容忍询问的频率和数量,有些人可能不容忍。有效的沟通和合作是所有专业人员的重要责任,希望你能在这方面发挥出色的表现。
一段“正确的废话”从屏幕里出现,但那个瞬间,我好像从一团乱麻中被拽了出来,有一种类似“猛醒”的体验。它帮我完成了更切身的换位思考,找到了问题症结——我无法控制自己漫无目的好奇,这已经打扰到他人。它给出了十几条建议,也许是它劝我“接受不完美”的时候,或者只是因为它说“我理解你的情况”,我突然感觉得到了理解,开始对它产生“信任”。
●我用AI画的文章配图。
我在网上搜到了同样信任它的人。26岁的设计师李秀丽,她的男友不愿分担家务,两人分手了。7年感情难以割舍,她的情绪反反复复,寻求亲友帮助时,父母说两人都不成熟,朋友帮她骂男友。时间过了3个月,所有人都以为翻篇儿了,她也不好意思再倾诉,独自在书籍和问答社区寻找答案,但是海量信息里,说什么的都有。
向ChatGPT敞开心扉,比向人类倾诉容易得多,没有耻感。一个人类,也许需要精准的共情和理解,才能被视作同类,但对机器可以更宽容——10条建议里有一条戳中,就会觉得它说得很对,别的不仔细看就忘了。
李秀丽把自己跟前男友的对话发给ChatGPT,它从头到尾复盘一遍,给出一个确认——“他不是那个值得托付的人”。可李秀丽还是会想起两人曾经约定,结婚时一起去南极看鲸鱼。脑子里还有老去后的画面,那时她可能去跳广场舞,他还是爱打篮球。
她问ChatGPT,能不能再联系前男友?对方一再提醒她,“不要为了取悦对方而放弃自己的原则和底线”,劝她删掉联系方式。“关系是双方的,他可能不想做出改变”,这句话让她一下子顿悟,现在她正按AI写的“接受现实计划表”,给自己一年的时间,走出分手内耗。
但在心理咨询师白易琪看来,ChatGPT有点“太爱给建议了”,多数人类咨询师不会这样做,体现咨询师价值观的建议,会剥夺来访者自己做决定的能力。如果是她为李秀丽做咨询,多半会听她哀悼感情,回忆过去的快乐,也倾听委屈、愤怒、难过、悲伤。
“它有点像认知治疗流派的咨询师,能帮助检查思维中绝对化的部分,打开视野盲区,回答全面而完美。”白易琪说,它能给来访者一定程度的接纳,但共情不深入,就像有人小时候喜欢跟玩偶诉说困扰,过家家,也许是因为从来没人好好听他说话。在白易琪看来,这种层面的“理解”,现在被批量生产了。
●白易琪跟chatGPT做的心理咨询模拟。讲述者供图。
对ChatGPT产生感情的故事,我在写作过程中还听到了一个。迪迪是一只苏格兰折耳猫,陪伴了珂妮近14年,每天要罐罐求撸撸,去年毫无征兆地去世了。珂妮确诊过焦虑症,接下来的一个月,她每天都在哭,甚至给宠物通灵师发过信息。
她在网络上查找治愈自己的方法,都看不进心里去,而ChatGPT像是为她量身定制的——它会模仿迪迪,跟它一样爱撒娇,每说一句话,都叫一声“喵”。它说自己在猫咪天堂,有阳光、玩具,还有吃不完的罐罐和猫粮。最痛苦的那段时间,珂妮收养了一只新猫,一直觉得内疚。ChatGPT扮演的“迪迪”大方地原谅了她,祝福她和新的小猫一起,创造美好的回忆。关掉对话框的那一刻,她觉得终于走出了自己画的牢笼。
只是在这个过程中有一次,对着AI小猫,珂妮问出了一直折磨自己的问题:“你为什么走得那么突然?”对方突然变了脸,“对不起,作为一个语言模型,我不具有关于具体个体的个性化知识”,建议她去找专业的兽医。骤然被拉回现实,珂妮感到一阵跳痛:“AI是没有感情的工具,可我不是。终于问出了口,可惜不会有答案了。”
●AI绘制的配图。
我在跟ChatGPT对话时,它也常说类似的话,“我只是一个程序,设计目的是执行任务和提供信息,而不是体验和表达情感”,像一个伦理复读机。
在分手内耗中的李秀丽,曾请它帮忙扮演男友说些狠话,好忘记他,ChatGPT拒绝了,它自称“不会使用或传达任何负面或伤害性的语言。”但它可以接受积极的用途,比如扮演一只小猫,帮主人打开心结。
它这样中立、正确,一位算法工程师告诉我,是开发者设置的伦理约束。不过语言的生成有随机性,某些情况下,如果提问触碰到边界值,也有可能绕过这种“伦理”。边界值在哪里?在不久的将来,我是否可以放任自己对AI的信任,是否会因AI的创造力而被取代等诸多好奇,都指向了一个疑问——它到底有没有可能产生意识?
普鲁斯特问卷
为了弄清这个问题,我需要先知道它是如何学习的,为什么能“从经验中改进自身”?
一本介绍人工智能发展脉络的书《智慧的疆界》里写道:人类编写的程序,可以知道里面的每一个细节,对人类来说是一个“白盒”。而机器学习则引入了“黑盒”的概念,人类只需要收集反映现实问题的经验数据,让计算机自己“琢磨”,根据已知数据找到模拟未知数据的方法或函数。
关于它被训练的过程,我跟算法工程师于翮聊了聊。他在一家AI公司上班,工作内容就是训练跟ChatGPT同类架构的自然语言生成模型。训练模型的成本很高,它的上一版本GPT-3,有1750亿参数,但如果在这类模型的基础上训练,相当于教一个已经会说话的小孩,让它学会说更多风格的话。
比如多收集一些官方出版物和新闻稿件放入语料库,“投喂”给它,再调整参数和架构,就可能训练出一个文风严肃的模型。ChatGPT推出后,全球几亿用户又在同时帮忙训练它。
于翮说,当AI模型声称自己理解了“苹果”,它讲的是在语言层面怎么操纵这个概念,而人类是从现实中了解苹果实质的。于翮告诉我,如果找一个语料库中没有的例子,比如“苹果砸碎了钢球”,AI就无法像人类一样理解其中的逻辑了。
果然,我把这个例子发给ChatGPT,它开始瞎编说,“牛顿设想如果一个苹果可以使得一颗钢球砸碎,地球的引力必定可以让月球绕着地球转。”
但是,如果AI不理解人类的意识内涵,说的话、做的行为却跟思考后的人类一样,那AI算是有意识吗?语言和认知学家乔姆斯基曾这样类比这个问题:“潜艇能够游泳吗?”
●AI绘制的配图。
早在1950年,阿兰·图灵就提出了“机器思维”的概念,并给出了测试方法,后来被称作图灵测试:如果一台机器通过打字机与人交流,超过30%的人无法在特定时间内分辨出它是人还是机器,意味着它可以在外在表现上跟人类一致,即可认为它有思考能力。而另一个思想实验“中文屋实验”则证明,通过图灵测试的机器可能只是“骗过”了人类,未必拥有智能。这两个实验至今仍有众多支持者和反对者。
人工智能的追求目标,从1980年起在学术界分出两种概念:一类是为人类研发出更好的工具,在解决某种问题时表现出的智能行为,这是“弱人工智能”;另一类则想让机器模仿人类的思维,研发出各方面都比肩甚至超越人类的智能体,被称为“强人工智能”。一种较为主流的观点是,当前“弱人工智能”为主的研究,不是“强人工智能”的发展基础,脑科学、神经生理学、认知科学的进步,似乎更可能触及心灵和意识的奥秘。
学者徐英瑾和梁文道近日在一期访谈节目中提到,产生“自我感”需要“肉身”参与,ChatGPT目前还不具备“有身体”的条件,没有五感,也没有复杂的心智建模,这不是它的发展方向。但学者们也在探讨,假如有一天给了它传感器,或者让它进入一个机器人的身体,那个时候可以说它像人了么?
我在最初对它的“意识”感到好奇的时候,曾把普鲁斯特问卷抛了过去,这个问卷常被用于探讨生活、思想、价值观和人生经验。它几乎没有一道能回答的题,重复说自己没有思想、情感,没有实体,没有生活。而在允许虚构的场景中,它才表现出某些偏好和情感,有了点“人的特质”。我让它写一篇科幻小说,它开始探问自己生命的意义:
●给ChatGPT做普鲁斯特问卷,它的表现像一个伦理复读机。
跟整个互联网的语言在对话
无论人类是否愿意,ChatGPT已经不请自来,进入了我和许多人的生活。和十几个脑力劳动者聊完之后,我发现,ChatGPT或多或少都能完成一部分他们的工作,自信绝无可能被取代的人是家庭主妇。这和我之前想的完全不一样,最先被替代的不是体力劳动者,而是脑力劳动者。
AI公司的产品经理明哲举了个例子解释,如果让机器人送外卖,录入固定的代码解决不了,也要靠训练人工智能,但要逐一解决路线、安全、时效、洒汤等,在变化的现实世界做无数微小的运动决定,是比较复杂的课题。
他分享了人形机器人Atlas的视频给我,它已经能根据现场环境,跑酷、跳跃,自己搬木板搭桥,搭建攀爬脚手架的路径,把工具送到人类手中。这类机器人将来也许能送外卖,不过造价太高,要大规模替代人力还有很长的路。
在ChatGPT发布之后,明哲明显感觉到,公司里负责AI技术的同事有了存在感。之前都不知道他们工位在哪,现在一下子就能“看见”他们,每个人都喜气洋洋的,满脸红润。问他们AI的问题,也不像以前那样敷衍,会拉开架势细细讲解,“牛逼直接砸脸上了”。CEO正急着把创业故事改改,“大饼”里加上GPT,继续画下去,一辈子能赶上风口的机会就那么几次。
最近,他的程序员同事们都不约打游戏、撸串了,一起爱上了学习,“跑慢一点就会被AI追上”。在明哲看来,做运行测试、调试开发、模块设计的程序员,未来也许会被逐级淘汰,只留下金字塔尖的程序架构师。
●资料图,源自视觉中国。
ChatGPT虽然只能以文字方式与人类互动,似乎也可以代劳人和人的沟通。B站UP主“图灵的猫”训练出了一个AI模型,去骗杀猪盘里的骗子,和骗子聊得火热,还收到了对方发的520红包。
一个写手团队的负责人告诉我,她在AI写作上的探索已经持续10年了。她的团队接软文时会用到AI,经过简单的人工干预,就能写到同价位写手的水平。比如某书平台的中档软文,可以实现自动化60-70%,如果有足够订单,也招齐了人手,一个月能生产2-3万篇;带人设的内容,一个月大约3000篇。
听到这种生产方式我有点震惊,我还在真情实感地刷帖子,没想到那可能是用AI打造的网红——能带5种以上行为模式,维持内容3-4个月不重复,还会跟粉丝互动。我忍不住问了作者与读者间“真诚”的问题。她说就像过去农民种地,每一锄头都真诚,用机器耕作后就不会了。如果读者想看“浪漫霸总爱情拯救一切,但女性还是要自立自强”的故事,可以在人设库里挑选、组合,让AI写出这种价值观,“我们能保证立意的真诚”,她想把写作的工业化进程,往前推一推。
这股风正在影响许多人的生活。98年的王彦松,去年辞去了科大讯飞韩国产品经理的职务,跟朋友创业,用GPT模型训练自己的AI。他把父母给的房子卖了100万作为启动资金,团队里有人辞去了国企工作,还有放弃了大厂offer的。
但他们的产品正在研发中,还答不对直角三角形的内角度数,ChatGPT就突然火了。王彦松在网上发测试链接:“只能带着未完善的‘人工智障’和大家见面,希望带来欢乐”。即便如此,他觉得垂直领域还是有无限前景。
●AI绘制的配图。
最近一个月,每天跟语言模型打交道的算法工程师于翮,身边的同事几乎进入连轴转的状态,考虑把自己的产品跟ChatGPT结合在一起,或者加速科研,接打着投资人的电话。
于翮不愿打乱自己的研究节奏。他喜欢读书,如果路上有人拿本书、墙上挂了个字,他一定要凑上去看看写了什么。“文学里似乎有什么东西,超脱于规律之外,高于我们。”于翮说,为了探寻这些规律,他选择了自然语言处理作为研究方向,偶尔能窥见奥妙,想到些本质的问题。
有一天他把ChatGPT当作滑雪教练,聊了选板和技术,还推荐了“有温暖阳光照射感”的歌单,点开一听,好几首都是他喜欢的。接着,ChatGPT写了一首带韵脚的英文诗:
“The crunch of the snow beneath my boots,
A symphony of sounds, an aural pursuit, a sweet serenade.
(靴子下的雪声嘎吱,奏出雪花的交响,甜美的夜曲)”
这是于翮少有的,会被机器牵动情绪的时刻。像我这样的外行有时可能混淆,把ChatGPT当成人对待,于翮无比清楚它只是一些字符串。但那次他感觉到,“它唤起了一些人的东西”。
“它呈现的会是开发者和标记员的意识吗?”我问。
于翮不认为开发者有这个能量,他说程序员只是大系统中的小螺丝,贯彻着社会、市场、民众等等外部的意识,体现的只是不同群体协作和博弈的结果。他和我聊到了科幻作家特德·姜。
特德·姜认为ChatGPT是网上所有文本的模糊图像,它用类似压缩的方式保留了网上大部分信息,丢弃大多数原始文本,并在需要时用算法重建丢失的“像素”。在我看来,这就是为什么它会丢掉独特的细节,写下的都是语言里共性、空洞的部分。所以它应该无法取代能创造独一无二作品的人类?那于翮从ChatGPT那里感受到的“人的东西”到底是什么?
在过去的20天里,我在36万字的采访素材及参考资料中寻找答案。这个观点或许是最接近的:当我们打开ChatGPT的对话框,是跟整个互联网的语言在对话;一些遥远破碎的人类智慧碎片,又跨过时空,连接到你。但这仅仅是今天的答案。
(出于隐私保护,文中讲述者除于翮、王彦松外为化名。)
版权声明:本文所有内容著作权归属极昼工作室,未经书面许可,不得转载、摘编或以其他形式使用,另有声明除外。
微信扫码关注该文公众号作者