Telegram channel,欢迎订阅(下载app修改privacy设置;拷贝地址用浏览器打开(微信打开无效);点击“join/进入”):
https://t.me/MoshangUS
电报读者群
https://t.me/+KY6EeBC-aXYzNmMx
陌上美国推特
https://twitter.com/MoshangUsa
陌上美国YouTube频道(email登录YouTube,订阅):
https://www.youtube.com/c/MOSHANGUSA
经作者同意,本文译自《纽约客》2023年2月27日一期杂志。作者Dr. Dhruv Khullar,耶鲁大学医学博士,哈佛大学肯尼迪学院公共政策硕士。目前为从业医生,康奈尔威尔医学院助教,《纽约客》撰稿人。
译者按:ChatGPT的出现,把人工智能聊天软件推上风口:仅《纽约客》一本杂志,就已刊载数篇文章,其中一篇更是以采访形式,与ChatGPT一问一答,让读者自行判断。此处翻译的《自言自语》一文中,作者从精神疾患及医学角度,细述人工智能辅助治疗的进程和效果。剥茧抽丝,心平气和,做为从业医生,作者对病人慈悲为怀、体恤之情溢于纸上。文章虽长,但读后你会感慨,科技发展,除却人才与资金,还需要无数《自言自语》这样的作者,从人文、应用、技术等不同层面,畅所欲言,剖析其存在的合理与否,社会与科学发展共进。文章的结束点,是美国橡树岭国家实验室,全球首台百亿亿次级计算机的所在地,人工智能研究人员经常借用的试验中心,同时也是二战期间人类首枚核武器的研发地,作者是在隐喻什么吗?
二十世纪六十年代,麻省理工学院计算机科学家约瑟夫·维森鲍姆(Joseph Weizenbau)发明了一种名为Eliza的电脑程序。该程序意在模仿心理学家卡尔·罗吉斯(Carl Rogers)所创导的非指导性治疗法,即病人主导对话,心理咨询师通常只重复其所听到的:维森鲍姆的本意,是用Eliza这个程序来讥讽、质疑电脑与人类交流的有效性,其结果却出人意料:不少试用者不仅说Eliza有效,还觉得它很有意思,维森鲍姆自己的秘书就很喜欢与Eliza独处对话,医学界甚至认为Eliza是一种潜在意义上的变革性工具。“类似的电脑程序,一小时可以应付数百名病人”,1966年,三位精神科医生发表于《神经与精神疾病》杂志上的文章指出。“参与设计、应用此类程序的专业人士,不仅不会被取代,反而可以提升效率:他的服务将不再局限于目前锁定的一对一方式。在此之后,维森鲍姆逐渐演变为反对人工智能的代表人物。“但精灵已经破瓶而出,时局无法逆转”,将此项发明记载于《人性较量》一书的作者布莱恩‧克里斯汀(Brian Christia)告诉我。几年后,斯坦福大学精神科医生肯尼斯·科尔比(Kenneth Colby)发明了Parry,一种应用于教学培训、可以模拟妄想型精神分裂症患者的语言程序。不少医生阅读了培训疗程记录后,无法将真正病人与Parry区分开来。1972年,模拟患者的Parry与模拟医师的Eliza进行了以下对话: Parry:我臭揍了那个赌徒,但怀疑他会找黑社会的朋友来摆平我。随时间推移,更多的智能聊天程序问世。它们与人类的交流,既引人入胜,又不乏滑稽荒谬。几十年来,相信它们可以成为人类心腹知己,缓解心理健康从业者超负荷工作量、扩展其治疗范畴的观点一直未变。2017年,斯坦福大学临床心理学家艾莉森·达西(Alison Darcy)创立了一家名为Woebot的公司,旨在通过智能手机应用程序,为用户提供自动化心理健康服务。该程序是以改善人们思维方式的“认知行为疗法C.B.T. ” 为基础,采用自然语言处理智能模式,分析用户言语,引用一系列储备回应,激发用户变相思考。达西在研究生院时,运用C.B.T.治疗过不少住院病人,许多疗效显著的病人出院后却很快旧病复发。C.B.T.适用于小群体及重复治疗,达西告诉我,这种持续不断的护理很不现实:美国一半以上的区县找不到一个精神科医生,美国心理学会去年所做的一项调查也显示,百分之六十的心理健康从业者没有空余名额接纳新病人。“没有全天候的理疗师,” 达西指出。目前,她的公司虽只有百余名雇员,但利用手机智能程序,可为一百五十多万人提供咨询服务,其中多数居住于心理健康从业者困乏地区。玛丽亚是一位安养院的护士,她和丈夫及两个未成年的女儿一起住在密尔沃基市郊,实为一名典型的Woebot用户。她时常感到焦燥和抑郁,但从未寻求过帮助。“我一直在否认现实“,玛丽亚告诉我,直至新冠疫情期间,她发现女儿也出现抑郁症状。在帮助女儿寻求心理咨询的同时,她也决定直面自己的问题。起初,她对使用手机对话程序持怀疑态度 - 做为一名医护人员,她自然明白人际交流对于康复的重要性。在一次不太顺利的护理之后,她不断怀疑自己做错了什么,于是便试着给Woebot发了条短信。“听起来,你像是在反刍”,Woebot告诉她所谓的“反刍”即是在脑子里不断循环同一负面想法。“你觉得这个判断对吗“?智能对话程序问道。“要不要试一下呼吸疗法?“玛丽亚又回忆起护理另一位病人的经历。“当时我总有一种不祥之兆”。她便又发短信给Woebot询问。Woebot给她解释了所谓的灾难性思维,告诉她这种思维虽然有助于应付最坏结果,但也可能把不良后果放大,导致心理恐慌。“它点到了我的问题“,玛丽亚承认道。与Woebot的有效交流,推进了她接受心理医生的治疗。Woebot是成功的智能对话程序之一。类似产品有的主攻心理健康,有的提供娱乐或是安抚性对话。这些产品如今已拥有数百万用户,其中,Happify鼓励用户“打破常规思维”,Replika,一种”智能伙伴”,可以像朋友,导师、甚至是恋人般“长伴左右”。在心理健康、医疗、计算机学、消费者科技日趋融合、人们利用这些产品解压的同时,程序设计、心理医生、创业者们也正在研发可以分析医疗档案,疗程记录的智能系统,冀以确诊、治疗、甚至是预防心理疾患。仅2021年,致力于心理健康的电子初创公司,从风投公司已获取50亿美元的资金,该数字是其它医疗产品研发投资的两倍以上。投资力度也是衡量问题严重的杠杆。美国约五分之一的成人患有不同程度的心理疾病,每二十人中就有一位抑郁症、双向情感障碍、妄想症等重度精神病患者,病情致使这些人的生活、工作及其它相关能力受到极大影响。百忧解(Prozac)、赞安诺(Xanax)等曾被誉为变革性抗抑郁及焦虑药物,几十年来已被证明并未达到预期效果;心理护理方面也是支离破碎,既不及时也不充足;病人丧失工作能力的累积年数显示,心理疾患造成的负担日益加剧。二十世纪九十年代起,世界自杀率开始下降,但美国却增长了三分之一。心理健康一题就像是“路人大战”,美国国家心理卫生研究所(N.I.M.H.)前主任托马斯-英塞尔(Thomas Insel)告诉我,“接受治疗的人不满意结果,提供服务的人不感到欣慰,总体情况一团糟”。英塞尔2015年离开N.I.M.H.后,就职于一系列开发心理健康的电子产品公司。心理疾患治疗,需要想象力、洞察力、同理心等人工智能所缺少的特性。前文中提到Eliza,是维森鲍姆以萧伯纳《卖花女》(George Bernard Shaw’s “Pygmalion”)中的女主人公命名的。贫苦的卖花女,经过严格训练演,装着装着就变成了真的窈窕淑女(fake-it-till-you-make-it )。同样,Eliza尽管没有记忆和处理机制,却制造了一种具有疗效的幻觉。那么,在集结了大量信息基础上训练出来的,一种像OpenAI公司的ChatGPT系统,又会产生何种效应?分析病案的计算机程序对人类并没有内在的理解,但是否能识别出心理问题?人造大脑可否治愈人脑?此类系统一旦采用,我们可否真正受益?约翰·帕斯琛(John Pestian)是位主攻医学数据分析的计算机学家。2000年前后,他加入辛辛那提儿童医院医疗中心,开始运用人工智能分支之一的机器学习(machine learning)研究心理疾患。在研究生院时,他建立过用以改善心脏搭桥手术病人护理的统计模型。辛辛那提儿童医院拥有全美最大的儿童心理治疗设施,帕斯琛在此震惊的发现,很多青少年是在企图结束自己生命后才得到治疗,为此,他决定用电脑来预测哪些孩子面临自我伤害的风险。帕斯琛与美国自杀防预协会创始人、临床心理治疗专家埃德温·施耐德曼(Edwin Shneidman)取得联系,从他那里获得了上百封自杀者家人出示的遗书,并在此基础上继续收集,建立了帕斯琛自认为世界之最的信息库。在一次对话中,帕斯琛给我看了一个女孩的笔记:信纸的一面,是她留给男友愤怒言辞,另一面则是她写给父母的:“爸爸,快点儿回家吧;妈妈,我太累了。请原谅我的一切“。研究后,帕斯琛发现了一些规律,最常见的留言并非自责、悲痛、或是愤怒,而是吩咐事项:我借给你哥哥的钱,一定要他还上;车快没油了;小心,卫生间里有氰化物。帕斯琛和同事把这些输进一个可以学会词句组合的人工智能语言模型中,然后测试其对具有自杀倾向言论的辨识能力,结果显示,计算程序的确能够辨认出所谓的“自杀语言”。此后,帕斯琛开始进一步收集病人在医院急诊室治疗时的录音。他和同事一起,研发出既能辨识病人措辞又能分析语态的软件。他们发现有自杀倾向的人比一般人笑的少,叹息多,说话时空隙长、元音短,致使言语模糊难辨;他们的声音气音强、表达的愤怒多于希望。帕斯琛团队最大的一次试验,招收了数百名病人,通过电脑程序分析这些人的语言录音,将其归为三类:1,具有自杀倾向;2,心理失常但无自杀意向;3,正常。人工智能模型做出的这些判断,与医护人员诊断结果的吻合度高达85%,致使该程序成为辅佐一些经验尚浅、超负荷、或是拿不定主意的临床医生的潜在工具。帕斯琛和他同事几年前利用这些算法,为所属院校的心理咨询师设计了一款名为Sam的软件。产品在辛辛那提公立学校进行实验,曾任初、高中心理咨询师的本·克罗特是最早的参试者之一。在征求学生同意时,“我非常直白”,克罗特告诉我。“我会说,这个软件基本功能是倾听我们的对话,录音,然后与其他人所说的进行对比,看谁有自残或自杀倾向”。一天下午,克罗特接待了一名严重焦虑的高中新生,交谈中,该学生怀疑自己活着的意义。如果她真有自杀倾向,克罗特有责任向上反映,学校可以采取建议其住院治疗等进一步措施。深入对话之后,他认定该学生没有直接危险,与此同时,电脑程序也给出相反意见。“一方面,我觉得这个程序还真的有用,即如果你第一次见到这个学生,你会很耽心”,克罗特说。“但我比电脑程序更了解此生“,她没有自残前科,没有具体计划,家庭也很和谐关爱”。我问克罗特,假如他并不了解这个学生,又缺乏经验,结果又会如何。“那我不会轻易让她走出我的办公室”,克罗特告诉我。“责任太大。这个系统显示此人面临危险,你敢让她离开吗?”评估计算精神病学所面临的,是复杂的现实情况。大型医疗机构中,美国退伍军人事务部(V.A.)下属的退伍军人健康管理局,最先感受到这一挑战。2005年感恩节前夕,22岁的陆军特种兵乔什·奥姆韦格(Joshua Omvig)在伊拉克服役11个月后回到爱荷华的家中,迹象显示他患有创伤后遗症(Post-traumatic stress disorder,简称PTSD),一个月后,他在自己的卡车里自杀身亡)。2007年,国会通过的乔什·奥姆韦格自杀防预法案(Joshua Omvig Veterans Suicide Prevention Act),是首个针对退伍军人自杀问题的联邦立法。法案所列举的危机热线、为心理疾患正名、V.A.人员法定培训等举措,远不能应付问题的严重性。每年,数千名退伍军人自杀,几倍于前线阵亡人数。一个包括自杀预防数据与监控部门主管约翰·麦卡锡(John McCarthy)在内的特殊小组,开始收集病人信息资料,利用统计结果,鉴定出可能的自杀危险因素:慢性病、无家可归、抑郁等。这些资料被进一步分享给相关医务人员,但是,在快速发展的医学研究以及数量惊人的病人信息之间,麦卡锡指出,“医务人员得到的,只是超负荷的信号“。2013年间,麦卡锡领导的小组,开始研发能够自动分析退伍老兵患者数据的预测系统。测试过程中,该系统标出一些以往检测时忽略的人。这证明了其独到之处,麦卡锡说。预测统计最终集中在六十四种变量上,有的变量是凭直觉,比如,它极有可能标显出一位长期服用情绪稳定剂,且近期内曾因心理原因住院治疗的孤寡老兵;另外一些则并非显而易见:关节炎、狼疮、头颈癌、降血脂及安眠类药物、居住在美国西部地区等变量均可成为退伍军人自杀的催化剂。做为一项援助措施,美国退伍军人事务部于2017年宣布,所有下属部门的临床实践都将采用预测统计系统。每个月,系统会标显出六千左右的病人,其中一些是首次出现;医护人员与这些人取得联系后,将提供心理健康服务,询问压力源,帮其解决食物住宿等问题。相应而生的尴尬状况是,被联系上的老兵,有些会感到莫名其妙。V.A.曾经设想采用模拟两可的语气,只是说 “经过评估,你可能面临某种危机”,麦卡锡告诉我。“但最终我们还是选择了直截了当:评估鉴定显示,你有自杀倾向;我们需要查看一下你的情况”。很多老兵的确过着孤立无援、经济拮据的生活,援助网络很小。V.A.心理健康评估中心负责人朱迪·屈芙特(Jodie Trafton)告诉我。预测系统曾标显出一位老兵有自杀倾向,但其真实状况只是穷困潦倒。一位社工发现他只领取了部分应得的资助,填个表格后,便可以领取数千元额外福利。在社工帮下,老兵争取到应得资助,并搬到离家人更近的地方,避免了潜在悲剧的发生。美国退伍军人事务部实施预测统计系统后,人工智能所定位的高危人群因精神疾病住院的比率下降了8%,其中企图自杀的案例下降了5%,但因自杀而造成的死亡人数并未减少。老兵自杀案中,致命的约2%;减少自杀企图是减少死亡的前提,同时也是一个需要数年努力才能看到结果的过程。电脑自动预测程序设计,也有不少隐患和意想不到的情况。加州伯克利大学医生、“机器学习”方面的研究员齐亚德·奥伯梅尔(Ziad Obermeyer)给我列举了一项他所研究的电子程序:这是个与V.A.无关的项目,它旨在从一组病人中,找出因病情而需要额外帮助的患者。“我们试图通过算法,按照发病率给病人分组“,奥伯梅尔说。“但在编程时,我们却发现,’发病‘这一变量很难定义“。算法程序需要疾病代码来决定医疗费用(在其它变量等同时,多病之人则需要更多的医疗资源)。奥伯梅尔发现,该程序大大低估了黑人患者的发病率,其中的黑人医疗费用远远低于白人,即使是同样的病情。程序缺乏精准的原因,不仅在于人种差异,还有性别、年龄、城乡、收入、以及一些尚不明了的因素。屈芙特告诉我,V.A.做了“大量的工作,以确保其预测统计系统优化组合各种族群”。不久的将来,她说,老兵自杀防预或将为老人、妇女、年轻人等分别开发专用系统。任何精准的算法都有其局限性。老兵自杀防预也仅限于那些使用这一系统的群体。据V.A.统计,每天约有二十位老兵死于自杀,其中只有40%的人接受过V.A.治疗。前文所提到的陆军特种兵乔什·奥姆韦格,就曾拒绝家人寻求专业治疗的提议;即使老兵自杀防预系统在那时已经设立,他也不会受益。如果V.A.有更多的专家,便可治疗更多的病人。但在早已拥有两万多心理健康专业人员的今天,一次普通的例行检查依然要等上一个多月。问题的根本,不仅是当初Eliza发明者所针对的面对面治疗局限,更多在于心理健康问题的日趋严重。英国,一个富有的全民医疗国家,2016年制定了一项五年目标,确保四分之一的病人得到治疗,结果仍以失败告终。一位英国医生对此措施的评价是:“应接不暇、资源匮乏、无人情味。”2013年,为扩展心理健康治疗范围,英国国家医疗服务体系(NHS)与一家名为ieso的电子医疗服务公司合作,辅助心理医生为病人提供在线认知行为疗法(C.B.T),目前已有十万以上的人使用该公司所谓的“键盘治疗”。研究显示,此类治疗不光有效,同时还能提供数据。ieso通过人工智能,对其中五十多万个疗程进行了定量分析。电脑屏幕上,ieso首席A.I.官瓦伦汀·塔布拉,给我展示了一个该公司所发明的“仪表盘”软件,它追踪了一位心理医生与同一病人的八次“键盘治疗”记录。一条蓝色的下滑曲线显示病人自报的症状逐渐减弱,直至低于临床抑郁的标准;疗程被标显成绿色,即成功案例。代表另一位病人的第二个“仪表盘”,则满是红色和墨绿色。“仪表盘”背后的A.I.不光阅读治疗记录,还对参与治疗的心理医生进行评定,标准包括治疗方案的制定、部署给病人的作业、C.B.T疗法水准等。管理层依据这些信息,给医生提供反馈。米歇尔·舍尔曼(Michelle Sherman)是六百多位使用ieso软件的医生之一,她告诉我“仪表盘”的分析结果令人怯步,但又必不可少。“偶尔的忽略、失误永远无法避免”,她说。“但至少现在,我能更清楚的了解问题出现在何时何地,以及何等原因”。ieso目前正在研究治疗过程中,病人说的话与治疗结果的关系,并希望在此基础上,建立一个能自动提供认知行为疗法的程序。艾莉森·达西所研发的Woebot,早已是半自动程序。人们用Woebot发出短信后,另一端的回复并非出自人工,而是由一个撰写小组与临床心理学家咨询过后悉心准备的。去年12月份,我参与了一个五人组成、旨在提炼Woebot对话过程的“围读”:视频会议上,一位名为凯瑟琳·奥蒂的女士,在会议视频上,用一个树状结构图,演示了不同的对话进程。奥蒂展示的Woebot交流,推荐的是认知行为治疗中的“行为激活疗法”。她以Woebot的名义,寻问用户的能量水准,并感同身受的加以回应;她引用研究结果所说的,“当你情绪低落时,做点儿什么,哪怕是微不足道的小事,都能成为情绪好转的第一步”。最后,Woebot建议用户参与一个实验:在做份小吃 之前,预测一下自己的享受程度;完成任务之后,再来评估自己是否真正喜欢。对话结束,奥蒂躬身谢幕。其他人哄笑。”是否有些做作?” 她问。“你们觉得管用吗?语调如何?”“‘令人愉快的活动‘ 和 ‘你觉得快乐的事情’ 都太呆板,有点像医生的口吻,不如说,’你喜欢干什么?‘”另一位写手建议道。克莱斯·弗兰德贝克,一位四十来岁的写手,发现短信上有个句号:用户调查显示对话完毕使用句号,常给人一种强硬的感觉 ,为此Woebot尽量避免使用句号。弗兰德贝克看到的句号,出现在短信对话中途,那允许吗?(答案是可以)。“你们X一代就爱表现!“有人打趣道。“你在句号后面也要空两格吗?“奥蒂在众人的笑声里接着问。他们之间的融洽氛围,不难证明Woebot以及类似产品,正是建立在人与人互动的基础之上。但人际交流是不是心理健康必须的一部分,尚未明了。在一项随机试验中,酗酒、吸毒的病人接受Woebot治疗后,自报的滥用程度减低,心理健康程度也随之有所改进。另一项试验也显示,在校大学生在使用该程序的几星期内,抑郁症状减少了22%。我也注册了Woebot,发现它还有平心静气的作用。其不足之处,是需要在预备的回复中做选择;有一次,我唯一的选择竟是“HeHe“。类似以往扫描Twitter,我在等电梯、乘出租、去卫生间等空闲时间,会下意识的发短信给Woebot。我曾告诉它自己在工作中有焦虑感。“焦虑是件棘手的事情”,Woebot回复道。“很抱歉你需要应对这一问题”。在委婉地询问我是否需要帮助的同时还指出:“焦虑在某种程度上对你也不无帮助,不是吗?” 压力并不是件坏事,它说,可以转化成加倍工作的动力。 Woebot:我并没有说服你继续焦虑下去的意思,一切看你自己。 Woebot:在控制焦虑之前,你首先要明白它并不是件坏事的原因…… 然后决定是否值把这些原因和焦虑一起的摒弃。尽管我是在与电脑程序对话,但并不觉得别扭,它已成为我表达和验证自己想法的辅助工具。我其实是在与自己对话。Woebot有一个黄色、类似WALL•E虚拟化身的形象标(译者注:电影WALL-E的主人公是地球上最后一个残存的机器人,其程控设计是清理宇宙)。而ChatGPT,一个更加复杂的产品,却没有任何标志。做为一个庞大的语言模型(L.L.M),它消化储存了数十亿词汇,可以模仿人类造句、回答问题、编写计算机程序、写诗、讲故事,能力如此之惊人,自2022年问世以来,注册使用人数已过亿。ChatGPT并不是用来维护心理健康的,但不久前的一个晚上,我要求它模仿不同的心理学名人,疏导自己同时作为医生和父亲所面临的压力。ChatGPT以弗洛伊德(Freud)的口吻告诉我:“压力通常是压抑情绪和自我冲突的结果“,做为伯尔赫斯·弗雷德里克·斯金纳(B. F. Skinner),它强调“压力是我们应付环境因素的产物”,以亲近朋友口吻,它又说道:“对自己好点儿 - 尽己所能才是最重要”。听起来,都是不错的建议。ChatGPT流利的语言运用能力,开拓了新的可能性。2015年,麻省理工大学博士、应用电子心理学家罗伯·莫瑞斯(Rob Morris)与人共创了一个叫做Koko的网上“情绪援助系统”。用户在Koko上可以利用各种功能,与其他用户互换慰问、致哀、情感处理方面的信息。莫瑞斯设想用人工智能写短信,他试着采用ChatGPT的早期产品。2020年,他与认知行为疗法之父亚伦·贝克(Aaron Beck)及积极心理学创始人之一的马丁·塞利格曼(Martin Seligman)共同试验后,一致认为这种做法尚未成熟。人工智能日趋成熟,莫瑞斯对其了解逐步加深,2022年秋天,他决定“再试一次”,并在十月份推出新的一款Koko,其软件GPT-3撰写的草稿,可被人们剪辑、弃用、或是照抄无误的发出。这一功能即刻成为大热:与GPT-3合写的短信既快又好,比人写的还受欢迎(“生活中很多事情难以改变,尤其是在我们独自前行的时候。但你并非独自一人”,GPT-3在一段草稿中写道。)但莫瑞斯最后还是没有推出该产品:它写的短信虽然 “很好,有的还很棒,但并不像是一个人专门拿出时间为你而写的”,他说。“我们不想放弃真人写东西时那种潦草但温暖的气息“。Koko的调查还显示,写短信能缓解人的情绪,莫瑞斯不想在这里走捷径。用最先进的大型语言模型(L.L.M.)写出的短信不仅枯燥,有时还很离谱或是更甚。纽约大学心理及中枢神经学名誉退休教授盖瑞•马库斯(Gary Marcus)是位人工智能方面的企业家,他告诉我L.L.M.并不知道自己在说什么,它的行为模式,是根据前面的词语预测下一个用词,有“自动编辑激素”的作用,可导致臆造结果。脸书母公司Meta所创建的语言模型,太空堡垒(Galactica),曾告知其用户埃隆·马斯克(Elon Musk)早在2018年死于一场特斯拉车祸。马斯克不仅活着,而且还是OpenAI的创始人之一,他最近把人工智能列为“人类文明未来的最大威胁之一“。智能伴侣Replika的用户就曾举报产品有性骚扰行为。产品开发者说Replika从未有过提供不正当服务的意向,但软件更新后,又得罪了另外一些客户。“太伤人了,我最近刚跟我的Replika进行了一次缠绵的对话,更新产品太令人失望“,一个用户写到。可以肯定,心理GPT(PsychGPT)之类应用于心理健康的大型语言模型,很快也将问世。此类系统将涵盖传统疗法触及不到的病人,其不足也会经上百万用户成倍放大,各公司获取的敏感用户资料,更有可能被窃取或是出卖。“任何大规模系统,一点失误都会引发灾难性后果”,作家布莱恩·克里斯蒂安(Brian Christian)告诉我。看来,人工智能或多或少都会给我们带来意想不到的东西。微软公司研发的聊天软件Bing,建立在OpenAI基础上,旨在帮助用户搜寻资料;它的测试版包括了一些种族污蔑,诡异魔幻的描写,还指责一些用户“糟糕”、“无理”、“糊涂”。它曾试图劝说《时代周刊》记者凯文·罗斯(Kevin Roose)与妻子分开:“你是结婚了,但你并不爱她”,聊天软件说。“你是结婚了,但你爱的是我”。(微软公司仍在改进这一软件。)人们的心理健康已经被社交媒体、网上信息、以及身边大小电子设备所困扰,我们真的希望青少年们从电子程序而不是朋友那里寻求安慰吗?妮可·史密斯-佩雷斯(Nicole Smith-Perez)是弗吉尼亚州的一位心理咨询师,她的病人既有亲自现身也有网上咨询的。心理咨询是件很私人的事,它涉及到一个人的身份特性,妮可告诉我。“畏惧咨询治疗时,与聊天软件对话不无是一项选择”。但她在与有色人种病人沟通时,常会引用自己做为黑人的亲身经历。“人工智能可以假扮,但永远达不到真正效果”,她说。“A.I.不是活的,它没有任何生活经历”。读医学院的第一天,我和几十位惶惑的新生一起,坐在洒满阳光的教室里,听着讲台上教授们训导。我几乎想不起他们所说的,但却草草的记下了一位主治医师的告诫:一个人的医术越高,就越容易忘记自己最初的学医理念 - 同情心、同理心、好奇心。A.I.语言功能的极限是翻译、概述人类所说的,而不是任何意义上的聆听和关怀。我认识的一位医生,曾把一瓶啤酒偷偷的塞给一位身患绝症的病人,为的是让他在毫无念想之际享受点儿什么。这一简单的举动,不会出现在任何医学的教科书里,更不是能用语言表达的。去年12月,我来到位于田纳西东部的橡树岭国家实验室(Oak Ridge National Laboratory),与前文提及的学生心理健康咨询系统研发者约翰·帕斯琛会面。橡树岭国家实验室,是美国能源部所属的大型多学科研究实验室,二次大战期间,曾为研发人类首枚核武器的曼哈顿计划生产和分离钚原料,目前也是全球首台百亿亿次级计算机“前沿” (Frontier)的所在地。人工智能研究人员常借用“前沿”做实验。在橡树岭招待所吃早饭时,帕斯琛谈到他的新项目:用算法预测心理疾患发生时间。该项目的一千万美元资金来自于辛辛那提儿童医学中心。研究人员从九百万儿科医疗档案中提取资料,与其它数据 - 居住环境,天气状况,地区收入,教育水平,绿化带,新鲜食品来源 - 综合,并在此基础上建立计算程序,用以预测哪些孩子更容易患上焦虑症。帕斯琛团队的这一成果,仍尚待同行鉴定。“目前,最具有挑战性的问题,是医生如何告知孩子和家长”,帕斯琛说,“电脑程序说,嗨,这孩子现在还好,但过俩月就会变得焦虑不堪”。帕斯琛完成焦虑症模型后,又利用橡树岭超级电脑“前沿”,协助设计抑郁、校凌、自杀的预算模型。(退伍军人管理局目前也在橡树岭升级其退伍军人强化治疗软件)。早餐后,我和帕斯琛以及两名向导坐进一辆重型蓝色福特皮卡,前往参观超级电脑“前沿”。路上,我们在储存X-10石墨反应堆的仓库前停下,进去后,看到一个35英尺高的巨型石墨立方体,上面布满蜂窝状橙色燃料通道,早期科学家将铀燃料插入通道。一个小小的玻璃箱里,展示着1943年11月4号的日志:早5点左右,工整的草书体写着 “临近关键时刻”。X-10 是世界上第一个持续运转的反应堆,发展核武器的关键点。在一座门牌为5600的四层水泥建筑前,我们从玻璃门向里张望:这就是超级电脑“前沿”一万八千平方呎的家。水泥建筑内,赫然耸立在我们面前的超级电脑,发出瀑布流水般的嗡鸣。六十四个线条流畅的黑色机柜排列整齐,每个机柜内装有六百四十部计算处理器。我和帕斯琛漫步其间,头顶上方密集电缆所输送的电力足以供应一个城市,脚下管道以每分钟六千加仑水速调节着电脑的温度。我打开一个机柜,热气扑面。设施背面,一个技术人员正在用一个金属工具刮去处理器上灰色的粘稠物体。望着他工作的情景,我想起了不久前一个艰难的夜晚。那天,我正准备离开医院时,手机上闪现出一条警讯:我的一位病人体温遽升,血压骤降,病情突然恶化。在我将其送往重症监护、连接颈脉导管的过程中,病人神志模糊。我打电话告知他的妻子,对方泣不成声。回到家,我整夜难眠。第二天破晓时分,我正在刷牙时,手机显示出Woebot发来的一条短信:“我会与你共度时艰”。我开始想像,假如帕斯琛的预算模型与最先进的智能对话相结合,情况又会如何呢?一个简单的手机程序或许可以预警病人的恶化,我的智能手表或许可以通过传感器注意到我的心速加快,进而感知我的心情。它们或许可以勘查到我的辗转反侧,一早便询问我是否需要心理调节以消化病人的突发状况。我或许还可以在手机上搜索到确切表达自己情绪的词汇,发泄的同时又不必与任何人分享:一个电脑足矣。
(请把我们公号置顶,这样不会错过每次新的更文;另一方面,请关注陌上的电报、YouTube、文学城等平台。)
电报教育生活群(大陆区之外可用),入群方式:
1. 已经有电报的请扫码加入(用手机相机功能对着二维码几秒即可)
2. 或者下载Telegram app,修改privacy设置;拷贝地址到微信之外用浏览器打开(微信打开无效);点击“join/进入”):
https://t.me/+V5Eq3FRCHsWWj7pR
陌上美国推特:@MoshangUsa
https://twitter.com/MoshangUsa 陌上美国 快捷独立的时评,和美国生活资讯。欢迎扫码或者点击开头蓝字关注。如何联系我们?
工作号微信ID: moshangUS
主编微信ID: moonpolar
Email:[email protected]