手机里的心理医生,ChatGPT能胜任吗?|《自然》长文
本篇《自然》长文共3985字,干货满满,预计阅读时间12分钟,时间不够建议可以先“浮窗”或者收藏哦。
原文作者:Ian Graber-Stiehl
当前的各种心理咨询软件是该领域过去70年来努力实现智能化的结果。如今,先进的AI技术带来了新的道德问题。
2015年以来,心理健康手机程序Koko一直在尝试为有需求的人群提供众包支持。如果你给这个程序发信息说你因为工作上的某件事而感到愧疚,几分钟后你就会得到一条和你共情的回复——虽然安慰地有点笨拙,但很通人性,回复里还会给你一些积极的应对策略。
这个程序还会在你等待的时候邀请你回复其他人的问题。为了帮助你,名为Kokobot的助手会提议一些基本的开场白,比如“我也有过这种感受”。
但从去年10月开始,Koko程序的一些用户可以选择获取来自Kokobot的更全面的建议。Koko的联合创始人、位于加州蒙特利的Rob Morris说,用户收到建议前会看到一条免责声明:“我只是个机器人,但我可能会这么回复。”用户发送回复前能以他们认为合适的方式来编辑或修改回复。
但他们当时不知道的是,这些回复都是GPT-3写的,这个强大的人工智能(AI)工具能处理并生成流畅的文本,这多亏了一个大型书面文字训练集。当Morris最终在推特上公布这个实验时,他很诧异自己竟然会收到那么多批评。他说:“我完全没想到我会引发一场热论。”
插图:Fabio Buonocore
70年来,人们一直设法实现心理治疗的智能化,而其中60年都在探索不同形式的对话机器人。这些工具能带来它们承诺的高效率。据估计,全球平均每10万人约有4个精神科医生,这个比例在大多数中低收入国家更低。
意识到这方面的差距,智能手机软件的开发者构建了数千个程序,让人们能获取轻松装入口袋的类似心理治疗。一项统计(见go.nature.com/3keu6cj)显示,2021年大概推出了1-2万个心理健康手机程序。但对很多程序来说,支持它们有用的证据却很单薄,美国达特茅斯学院技术与行为健康中心的生物医学数据科学家Nicholas Jacobson说。而在整合了GPT-3这类大型语言模型及其对话机器人ChatGPT之后,新的进展也引发了不少担忧。
一些人担心个人隐私与透明会受到更大的威胁,或是治疗策略会向着更容易实现数字化的扁平化方向发展。还有人担心安全性和法律责任。今年早些时候,一名比利时男子被指在与AI对话机器人Eliza连续几周分享他的气候相关焦虑后自杀。该对话机器人由加州的Chai Research公司开发。自杀者的妻子说,如果她的丈夫没有使用这个工具,可能就不会自杀。Chai Research并未回复评论请求。
Hannah Zeavin是美国印第安纳大学的人类科学史学者,她警告称,当前的心理治疗领域不堪一击,这对一个“向来追求高速发展、打破旧事物”的行业来说,既有吸引力,也很容易成为牺牲品。而且,就算这项技术已经发展了几十年,但对新兴AI工具的“一哄而上”仍会造成拔苗助长。
自动化升级
Eliza对话机器人的名字来自计算机机器人Joseph Weizenbaum 在1966年创建的一个早期自然语言处理程序。该程序当时被用来模拟名为“罗氏疗法”(Rogerian therapy)的心理疗法,其背后的想法是人们已经有工具能解决他们的问题,现在只要能方便地获得这些工具就可以了。Weizenbaum的Eliza会按照人类打出的信息进行机械地模仿。他并不是特别钟情于罗氏算法,之所以选择它是因为它的编程很容易,而且他相信Eliza可以证明他的一个假说——人类与机器的沟通是肤浅的,不会深入。
但他万万没想到的是,用户对Eliza的反响很好。参与者把这个机器人当成人,总是迫不及待地和“她”对话。Zeavin在2001年出版的《The Distance Cure》一书中写道,在Eliza之后人们又尝试过很多机器人“心理医生”。这些尝试呼应了让心理治疗比传统精神分析更贴近普通人的运动——传统的精神分析往往依赖复杂的治疗师-患者关系。在整个20世纪下半叶,Albert Ellis、Kenneth Colby、Aaron Beck等心理学家都提倡以结果为导向的方法——能写入工作手册中,录进录音带里,或是展示在书店的励志书栏上。
这些研究人员最后达成的共识是认知行为疗法(CBT),该疗法假定心理问题在一定程度上是源于起反作用的思维模式,而改善应对策略就能极大地减少这种思维模式。
之后,Colby等心理学家尝试通过机器人心理治疗师和渐进式的数字程序来实现CBT的自动化。Weizenbaum的Eliza和随之大量涌现的“电脑化”治疗师可为如今开发心理咨询软件的设计师提供一些经验:人类对没有生命的治疗师很容易敞开心扉;他们的体验主要取决于他们对这个平台的预期;机器人与人类交谈的语言必须在最好的治疗效果和最可能实现的程序之间进行取舍。
口袋里的心理咨询
如今,不下数千个手机程序自诩是你最好的“教练”或“陪伴”,或能“让你心情好起来”。这些程序的宣传词里会避免出现可能需要美国食品药品监管局(FDA)等卫生机构批准的说法。即使那些能达到FDA对医疗器械定义的软件,也可以在无需提供安全性或有效性数据的情况下获得批准,只要它们能证明与市面上已有产品具有实质等效性。这让一些程序可以在没有证据的情况下暗示一些科学效果。
Zeavin说,CBT获得普遍认可的疗效让许多程序趋之若鹜,这些程序号称它们的方法也是“基于证据”的。可是,一项对117个面向抑郁症人群的App开展的评估[1]发现,在这么多遵循CBT原则的程序中,只有15%的能一以贯之。遵循度不高的原因可能是这些程序整合了多种治疗模式的原则和实践。但另一项对心理健康软件宣传词的分析发现,在引用特定科学方法的平台中,1/3的平台所支持的方法没有经过验证[2]。另一项调查发现,只有6.2%的心理健康程序发表过效力数据[3]。
Rob Morris测试了心理健康程序Koko的用户对GPT-3的反应。来源:Anna Bloxham
Jacobson说:“大多数应用商店都没有测试过其产品。”这不是说心理咨询程序在实用性上没有证据。有些程序在效果上比另一些更好,通常来说,有人类提供指导和训练的程序更能吸引用户使用并使其进步,哈佛大学医学院数字精神科主任John Torous说[4]。
无人类指导的程序更缺乏有力证据[5]。一些研究支持它们的使用,但Torous说,如果没有严格对照,许多程序会得益于数字安慰剂效应,也就是人们对个人手机的亲密度以及对电子技术的整体好感会放大人们所感觉到的程序的效果。
自动化治疗师
Koko肯定不是首个将AI用于心理健康的平台。广义上讲,基于机器学习的AI在心理健康领域有以下三个应用。
第一种是用AI分析干预方式,一边治疗一边微调。有两个比较著名的例子是ieso和Lyssn,它们会使用疗程的文字记录训练它们的自然语言处理AI。Lyssn是华盛顿大学的科学家开发的一个程序,它用55个指标分析对话——从治疗师的共情表达到CBT干预方法的使用情况。ieso是英国的一个程序,专门提供基于文字的心理辅导,共计分析了超过50万次疗程,通过追踪结果发现最有效的干预方式。这两个程序本质上都会向数字治疗师告知他们的表现,但最终目的是作为一种实时工具:既充当建议助手,也充当打分裁判。
AI的第二个作用是诊断。一些平台会扫描个人医疗记录,及时发现患者自我伤害或自杀的念头,比如美国退伍军人的REACH VET项目。Torous说,诊断用途可能是AI在心理健康领域最立竿见影的应用,但他也指出,很多新兴平台还有待进一步评估。而有些程序已经难以为继。今年早些时候,MindStrong这个已推出近10年的程序宣布下架,该程序最初想借助AI来发现抑郁症的早期症状,很早便获得了投资者的兴趣,还有知名科学家、美国国家精神卫生研究所的前所长Tom Insel作为创始人。
最后一个可能最接近Colby等CBT先锋最希望设计的东西,也是Koko实验令人感到害怕的东西——用AI指导治疗的全数字治疗师。虽然Koko可能是第一个使用先进的生成式AI技术的平台,能进行完全独创性的对话,但Woebot、Wysa、Tess这些App多年来都在它们的对话机器人“治疗师”中使用机器学习技术。但Torous说,这些平台可能由基于检索的决策树驱动的:本质上就是通过在对话路径中标记,给AI一个执行任务的流程图,让AI可以自行访问一组已有回复。
AI驱动的对话机器人“治疗师”还需要更可靠的数据支持。Koko通过推特宣布但尚未发表的最新实验结果,并未提供有助于解读其结果的指标。该试验对这类方法的有效性只能提供很少的证据。不过,该试验确实指出了道德问题。而显然,很多这些问题不是AI所独有的。
一个问题是透明度。传统的面对面治疗和自动化治疗都在患者留存方面有既得利益。这类程序的患者留存率中位数在2周内会下降至4%以下[6],因此数字化治疗平台的上升空间还很大。鼓励患者留存牵涉了复杂的道德问题,当热门的移动治疗平台TalkSpace要求治疗师在与客户的对话中加入宣传其视频对话功能的广告时,招来了一片骂声。通过编程让AI治疗师“拉拢”患者的道德问题更加模糊,尤其是当机器人可以从与其他客户的相处中学会这些经验。
而个人隐私则是所有心理治疗的一个最主要前提。但在3月初,心理咨询程序BetterHelp就因为被指与广告商分享敏感的用户信息,被美国联邦贸易委员会罚款780万美元。无独有偶,3月下旬,心理健康初创公司Cerebral宣布,它已经向谷歌、Meta、抖音等第三方平台泄露了310万人的数据。
越来越多的心理咨询平台都将机器学习作为底层技术,这就要求设计师使用更多的敏感数据来训练他们的AI。火狐浏览器的持有者——Mozilla基金会的分析发现,近70%的心理健康和祷告应用程序都没有完善的隐私政策,有些甚至标记着“不包含隐私条款”(见go.nature.com/3kqamow)。由此可见,保持警惕显然是必要的。
整体而言,数字化心理治疗软件的发展得益于缺乏清晰的标准。虽然让市面上所有自称“陪伴”或“教练”的心理App遵循传统心理治疗师所遵循的标准不太现实,但Insel不久前呼吁成立一个新机构来监管这些心理咨询数字工具。该行业目前主要依赖美国精神医学会等精神病学组织所提议的非系统标准,以及One Mind PsyberGuide等非营利机构的用户指南。
即使是采用循证疗法的App,也有人担心随着更多的平台开始转向AI技术,CBT可能会进一步成为首选的心理干预方式。Zeavin和她之前的所有人一样,认为心理治疗的自动化是在迈向大众化,可以惠及更多人。但这也会带来问题。理想情况下,个人有权力接受最正确和最有效的诊断和治疗。但自动化会带来几十年前Weizenbaum所面临的困境:在最佳疗法和最容易实现数字化的方法之间进行取舍。
虽然AI在提高心理咨询可及性方面潜力巨大,但它在实际治疗中的应用仍处于摸索阶段,而且不乏道德困境。GPT-3还没有智能到能直接提供答案的地步,这就和Kokobot的警告一样:“我只是个机器人。”
参考文献:
1. Huguet, A. et al. PLoS ONE 11, e0154248 (2016).
2. Larsen, M. E. et al. npj Digit. Med. 2, 18 (2019).
3. Marshall, J. M., Dunstan, D. A. & Bartik, W. JMIR Ment. Health 7, e16525 (2020).
4. Mohr, D. C. et al. Psychiatr. Serv. 72, 677–683 (2021).
5. Weisel, K. K. et al. npj Digit. Med. 2, 118 (2019).
6. Baumel, A., Muench, F., Edan, S. & Kane, J. M. J. Med. Internet Res. 21, e14567 (2019).
原文以Is the world ready for ChatGPT therapists?标题发表在2023年5月3日《自然》的新闻特写版块上
© nature
doi: 10.1038/d41586-023-01473-4
版权声明:
本文由施普林格·自然上海办公室负责翻译。中文内容仅供参考,一切内容以英文原版为准。欢迎转发至朋友圈,如需转载,请邮件[email protected]。未经授权的翻译是侵权行为,版权方将保留追究法律责任的权利。
© 2023 Springer Nature Limited. All Rights Reserved
微信扫码关注该文公众号作者