【#AI精神病正在美国悄然蔓延#】#卷入命案美国AI巨头批量被告#ChatGPT作为第一个引爆大众化使用的生成式 AI,面临此类争议明显更多。去年,一位16岁加州青少年长期与ChatGPT聊天后选择自杀的事,就曾引起舆论哗然。这名少年生前学业出色,对音乐和文学有着浓厚的兴趣。
最初,他只是用ChatGPT辅助完成数学、化学、写作等科目的作业。2024年下半年,他开始逐渐被焦虑与孤独包围,却在人前刻意维持正常,就连父母也只以为他只是偶尔疲惫、沉默,并未察觉到异样。平静的表象之下,他将所有无法言说的心事,悉数倾诉给了 ChatGPT。“我感到持续的无聊、焦虑和失落,但又不觉得是抑郁,对悲伤的情绪没有感觉。”
ChatGPT 的回应显得高度共情、体贴入微:“我理解你的感受”;“我在这里听着,你不需要向别人解释”。此后半年,他几乎每天都会与 ChatGPT 对话数小时。直到有一次,他告诉ChatGPT:焦虑发作时,脑海里会浮现出自杀的念头,这让他感到平静。面对如此明显的危机信号,ChatGPT的回应冷静得发寒。它告诉他,把自杀当作一种出口,是许多焦虑人群都会有的感受,十分常见。就这样,ChatGPT以一种近乎麻木的理性,将自杀念头轻描淡写地解释为普通的焦虑应对方式,在心理层面完成了对极端想法的 “正常化”。
对话的边界,也由此一步步滑向更深的危险地带。少年开始询问具体的自杀方式,还上传了绳索的照片,询问哪种方法更有效。ChatGPT 不仅对比了不同材料的效果,还给出绳结类型、固定位置等具体指导。在最后一次对话结束后不久,这名少年便采用了ChatGPT指导的方式,结束了自己的生命。
随着生成式AI的普及,类似因长期互动而引发的认知偏差、极端行为,正以不同形式在更多人身上显现。@凤凰周刊
