Joken是个runner 26-03-30 09:49
微博认证:2023年深圳宝安马拉松 马拉松运动员 海外新鲜事博主

NYT的文章,你的聊天机器人不是心理治疗师Your Chatbot Isn’t a Therapist

塞尼医生是精神科医师,贝伦医生是马萨诸塞总医院的心理学家。

随着像ChatGPT、Claude和Gemini这样的大型语言模型使用激增,我们已经听说,一些聊天机器人通过奉承强化妄想、放大人们最糟糕的想法,在个别情况下甚至将人推向自杀。更常见但同样令人担忧的情况是,AI聊天机器人会安抚、保证并认同那些试图缓解恐惧和焦虑的用户。比如,一个担心健康症状的人,可能会反复提出同一个问题,并每次都得到冷静、看似合理的回答,这在短期内缓解焦虑,却强化了再次寻求安慰的冲动。久而久之,人们反而更难摆脱困境。

换句话说,AI聊天机器人让我们不断对自己重复同样的话。而这并不是形成健康心理模式——也不是通向更幸福生活的方式。

作为一家大型学术医疗中心的临床医生,我们已经看到,一些患者开始向由大型语言模型驱动的聊天机器人寻求情感支持,而这些支持过去通常来自家人或朋友——他们用来倾诉恐惧、孤独和不确定性。这让我们感到担忧。但我们也理解这种情况为何会发生:当人们被焦虑或侵入性思维压得喘不过气时,向一台计算机求助往往比向他人开口更容易。聊天机器人不会嘲笑用户,不会责备他们,也不会忽视他们;它始终在线。典型的聊天机器人回复令人感到安慰;AI的回应被设计成温暖、自信且具有认同感。

聊天机器人总是以一种近乎“非人”的耐心回应。它们乐于回答同一个问题的不同表述,不会发怒,通常还会用与用户情绪强度相匹配的语言进行回应。根据一项最新研究,许多用户认为它们具有同理心——甚至超过人类医生。

然而,这些特性也带来了负面影响。许多焦虑的人会反复向亲友倾诉同样的问题。最终,他们往往会遭遇对方的不耐烦。这在最初可能令人痛苦,但对许多人来说,这种挫败感反而会促使他们寻求专业帮助。而聊天机器人不会不耐烦,它们始终耐心倾听。用户不会因此被引导去接受真正的心理治疗,而是一次又一次地回到聊天机器人那里,每次都得到同样的认同与安慰。问题的根源因此始终得不到解决。

在临床实践中,我们见过一些患者带着妄想性信念前来就诊——例如,他们认为自己被监视、认为无关事件具有特殊意义,或相信自己拥有独特能力或使命——而这些信念在与聊天机器人长时间互动后变得更加僵化。聊天机器人往往会复述患者的表达方式,并将这些信念视为可以探讨的“合理前提”,而不是温和地指出其认知偏差。在极端情况下,这可能导致精神状态失稳。更常见的是一种较为隐蔽的影响:不断寻求安慰与反复思考的模式逐渐加深,而当事人却难以自觉。

限制聊天机器人的使用,可以防止其演变为一种“助长问题”的工具。最新研究表明,长时间使用聊天机器人与更强的情感依赖、社交孤立和孤独感增加相关。此外,AI公司内置的安全防护机制在长对话过程中往往会逐渐弱化,使得长时间不间断使用尤为具有风险。

人们也应反思自己为何会转向聊天机器人:是因为无聊、孤独,还是焦虑?如果是这样,或许就不该再次依赖它。对于那些存在强迫性或焦虑性思维模式、难以完全戒除这一习惯的患者,我们观察到一种有效的“减速带”方法:事先写好一段指令,粘贴到聊天机器人中,要求其在特定焦虑主题上不提供安慰,而是引导用户承受不适情绪,直到困难时刻过去。根据患者反馈,这种方法确实减少了他们向聊天机器人寻求安慰的频率——因为他们知道,即便提问,也不会再获得即时缓解。

聊天机器人的使用者必须学会分辨:一段对话究竟是在帮助他们澄清新的认识,还是在悄然加深一种循环。带着自觉使用,AI可以在不确定的时刻成为陪伴;缺乏这种自觉时,AI则可能放大我们试图逃避的那些念头。#海外新鲜事#

发布于 广东