一些公司和研究人员认为,智能计算机最终可能会帮助解决心理健康方面供应商短缺的问题,一些消费者已经转向聊天机器人来建立“情绪弹性”。
就在一年前,Chukurah Ali 实现了拥有自己的面包店的梦想——位于密苏里州圣路易斯的 Coco’s Desserts——专门生产那种经常出现在烘焙表演比赛中的定制华丽婚礼蛋糕。Ali是一位单身母亲,她靠从心爱的祖母那里学来的烘焙食谱来养活女儿和母亲。
但去年 2 月,一场车祸让Ali从头到膝盖受伤,这一切都土崩瓦解了。“我几乎不能说话,我几乎不能动弹,”她抽泣着说。“我觉得自己一文不值,因为我几乎无法养家糊口。”
黑暗和沮丧吞没了Ali,救援似乎遥不可及;她找不到治疗师,没有车也去不了医院,也付不起车费。在不得不关闭面包店后,她没有医疗保险。
于是她的整形外科医生建议她使用一款名为Wysa的心理健康应用程序。它的聊天机器人服务是免费的,但它也提供与人类的远程治疗服务,收费从每周15美元到30美元不等;这笔费用有时由保险公司承担。Wysa的联合创始人拉玛肯特·文帕蒂(Ramakant Vempati)称这款聊天机器人是一款“友好”、“有同理心”的工具,它会问“你感觉怎么样?”或“有什么困扰你?”然后,计算机分析答案中的单词和短语,提供支持性信息,或处理慢性疼痛或悲伤的建议——所有这些都来自一个由接受过认知行为疗法训练的心理学家预先编写的回答数据库。
这就是Ali如何发现自己处于技术和心理健康的新前沿。人工智能的进步——比如ChatGPT——正越来越多地被视为一种帮助筛选或支持那些应对孤立、或轻度抑郁或焦虑的人的方式。人类的情绪被追踪、分析和回应,使用机器学习来监控患者的情绪,或模仿人类治疗师与患者的互动。这是一个吸引了很多人兴趣的领域,部分原因是它有可能克服常见的医疗财务和后勤障碍,比如Ali所面临的障碍。
聊天机器人疗法的潜在陷阱和风险
当然,对于机器是否有能力准确地阅读或对人类所有的情感做出反应,以及当这种方法失败时的潜在陷阱,仍然存在大量的争论和怀疑。(最近,一项涉及聊天机器人辅助治疗信息的实验被取消,在社交媒体上引发了争议。)
德州大学圣安东尼奥分校(University of Texas San Antonio)哲学教授、心理健康伦理学研究员塞里夫·特金(Serife Tekin)说:“宣传和承诺远远超过了显示其有效性的研究。”她说,算法还不能模拟人类情感的复杂性,更不用说模拟同理心关怀了。
Tekin说,例如,青少年可能会尝试人工智能驱动的治疗,发现它没用,然后拒绝与人类进行真正的治疗。她说:“我担心的是,他们会放弃其他心理健康干预措施,说‘哦,好吧,我已经试过了,但没用’。”
但聊天机器人疗法的支持者表示,在目前根本没有足够的专业人员来帮助所有可能受益的人的情况下,这种方法也可能是解决全球对更多心理健康护理的巨大需求的唯一现实且负担得起的方法。
例如,在家庭关系中处理压力的人可能会受益于冥想的提醒。或者,鼓励写日志的应用程序可以通过指出用户取得进展的地方来增强用户的信心。
支持者称聊天机器人是“引导自助盟友”
Woebot Health是一家由人工智能驱动的聊天机器人服务公司,其首席临床官雅典娜·罗宾逊(Athena Robinson)表示,它最好被认为是一个“有指导的自助盟友”。Robinson说:“Woebot通过即时短信倾听用户的输入,以了解他们是否想要解决某个特定问题。然后根据科学证明有效的方法,提供各种工具供用户选择。”
许多人不愿意向机器人敞开心扉。
Chukurah Ali说,一开始她也觉得很傻。“我想,‘好吧,我在和一个机器人说话,它不会什么都不做;我想和治疗师谈谈,”Ali说,然后补充道,似乎她自己仍然无法相信:“但那个机器人有帮助!”
她说,在实用层面上,聊天机器人非常简单易用。由于卧床不起,她可以在凌晨3点发短信。
聊天机器人会问:“你今天感觉怎么样?”
“我没有感觉,”Ali说她有时会这样回答。
然后,聊天机器人会建议一些可能会安慰她或让她忘记疼痛的事情,比如深呼吸、听舒缓的音乐,或者尝试一些她可以在床上做的简单运动。Ali说,聊天机器人说的话让她想起了几年前她做的面对面治疗。“它不是一个人,但是,它让你觉得它是一个人,”她说,“因为它在问你所有正确的问题。”
麻省理工学院(MIT)情感计算研究小组(Affective Computing Research Group)主任罗莎琳德•皮卡德(Rosalind Picard)表示,科技已经能够根据动作和面部表情、一个人的在线活动、措辞和语调,相当准确地识别和标记情绪。她说:“我们知道,我们可以让人工智能产生关心你的感觉。但是,由于所有人工智能系统实际上所做的只是根据一系列输入做出回应,与系统交互的人们往往会发现,长时间的对话最终会让人感到空洞、乏味和肤浅。
虽然人工智能可能无法完全模拟一对一的个人咨询,但它的支持者表示,人工智能在现有和未来还有很多其他用途,可以用来支持或改进人类咨询。
人工智能可能会以其他方式改善心理健康服务
Picard说:“就人工智能的未来而言,我所说的不仅仅是帮助医生和(卫生)系统变得更好,而是帮助在前端做更多的预防工作。”例如,通过读取压力的早期信号,然后提供建议,以增强一个人的适应能力。例如,Picard说正在研究各种技术可以标记患者情绪恶化的方法——使用从身体上的运动传感器、应用程序上的活动或社交媒体上的帖子收集的数据。
技术还可能有助于提高治疗效果,比如当患者跳过药物治疗时通知治疗师,或者在治疗过程中详细记录患者的语气或行为。
人工智能在治疗领域最具争议的应用可能是与Chukurah Ali这样的患者直接互动的聊天机器人。
有什么风险?
聊天机器人可能不会吸引所有人,或者可能会被滥用或误解。持怀疑态度的人指出,计算机误解了用户,并产生了潜在的破坏性信息。
但研究也表明,一些与这些聊天机器人互动的人实际上更喜欢机器;他们在寻求帮助时不会觉得那么丢脸,因为他们知道在另一端没有人类。
Ali说,虽然对一些人来说这听起来很奇怪,但在将近一年之后,她仍然依赖她的聊天机器人。
她笑着说:“我想我每天最多和那个机器人交谈7次。”她说,聊天机器人并没有取代她的人类医疗服务人员,而是帮助她提振了精神,所以她按时赴约。她说,由于聊天机器人的稳定指导,她更有可能起床去参加物理治疗预约,而不是因为心情不好就取消预约。
这正是Ali的医生、华盛顿大学骨科医生艾比·程(Abby Cheng)建议她使用这款应用的原因。Abby治疗身体疾病,但她说,伴随这些问题而来的心理健康挑战几乎总是阻碍人们康复。Abby说,应对心理健康挑战反过来又很复杂,因为患者往往会遇到缺乏治疗师、交通工具、保险、时间或金钱的问题。她正在根据患者对Wysa应用程序的使用情况进行自己的研究。
“为了解决我们国家乃至全球面临的巨大心理健康危机,我认为数字治疗和人工智能可以在其中发挥作用,至少可以填补人们所拥有的提供者和资源短缺的部分空白。”Abby说。
不是用来危机干预的
但要实现这样的未来,需要解决一些棘手的问题,比如监管需求、保护患者隐私和法律责任问题。如果技术出现问题,谁来承担责任?
市场上许多类似的应用程序,包括Woebot或Pyx Health的应用程序,都反复警告用户,它们不是为干预严重危机情况而设计的。甚至人工智能的支持者也认为,计算机还没有准备好,也可能永远不会准备好取代人类治疗师——尤其是在处理危机中的人方面。
Pyx Health的首席执行官辛迪·乔丹( Cindy Jordan)说:“我们还没有达到这样一个程度:人工智能可以以一种负担得起的、可扩展的方式理解人类可能做出的各种反应,尤其是那些处于危机中的人。”Pyx Health有一款应用程序,旨在与长期感到孤独的人交流。
Jordan说Pyx的目标是扩大医疗服务的覆盖面,这项服务目前在62个美国市场提供,由医疗补助和医疗保险支付。但她也担心聊天机器人可能会对有自杀倾向的人做出回应,“‘哦,我很遗憾听到这个消息。或者更糟,‘我不懂你。’”她说,这让她很紧张,因此作为预防,Pyx在呼叫中心安排了专人,在系统显示用户可能处于危机时,专人给用户打电话。
Woebot是一种基于文本的心理健康服务,它预先警告用户其服务的局限性,并警告不应将其用于危机干预或管理。如果用户的短信显示出严重的问题,该服务将把患者转介到其他治疗或紧急资源。
关于聊天机器人治疗效果的跨文化研究仍然很少
Woebot的首席临床官雅典娜·罗宾逊(Athena Robinson)表示,披露这些信息至关重要。此外,她说,“对公众开放的药物必须经过临床和严格的测试,”她说。使用Woebot的数据已经发表在同行评议的科学期刊上。它的一些应用,包括产后抑郁症和物质使用障碍,是正在进行的临床研究的一部分。该公司继续测试其产品在解决产后抑郁症或物质使用障碍等心理健康问题方面的有效性。
但在美国和其他地方,此类服务在进入市场之前没有明确的监管审批程序。(去年,Wysa确实获得了与美国食品和药物管理局(Food and Drug Administration)合作进一步开发其产品的许可。)
普渡大学计算机科学副教授安克贝拉(Aniket Bera)说,重要的是要继续进行临床研究,特别是那些跨越不同国家和种族的研究,以磨练这项技术的智能及其阅读不同文化和个性的能力。
“与心理健康相关的问题是非常个性化的问题,”Bera说,然而,关于聊天机器人治疗的现有数据主要集中在白人男性身上。他说,这种偏见使这项技术更有可能误解来自像他这样在印度长大的人的文化暗示。
“我不知道它是否能和一个有同理心的人相提并论,”Bera说,但“我想我人生旅程的一部分就是接近它。”
与此同时,对于像Chukurah Ali 这样的人来说,这项技术已经是一个受欢迎的替代品。她说,她已经向很多朋友推荐了Wysa应用。她还发现自己会把从应用程序中得到的建议传递给朋友,问他们:“哦,你今天要做什么才能让你感觉好点?你今天试试这个怎么样?”
她笑着说,并不是只有技术在试图表现得像人一样。她现在开始模仿这项技术。
本文发布于NPR,原文《Therapy by chatbot? The promise and challenges in using AI for mental health》,由生活100编译。