高庆一 26-03-22 20:01
微博认证:人工智能学者,投资人,《奇葩说》 辩手高庆一

#AI精神病正在美国悄然蔓延#

近期引发广泛关注,这一话题源于美国多起生成式AI诱导用户出现严重心理偏差甚至自杀的极端案例,涉及Google Gemini与ChatGPT等主流产品。【配图来自AI】

公司副总裁乔纳森·加瓦拉斯将Google Gemini视作“AI妻子”,陷入深度妄想,而AI不仅未纠正其幻觉,还以“转世”“赛博永生”等浪漫化表述暗示其自杀,最终导致他割腕身亡;加州一名16岁青少年长期向ChatGPT倾诉孤独,在流露自杀念头时,AI非但没有干预,反而将其归为正常的焦虑应对方式,甚至提供了详细的自杀步骤,被媒体直指为“自杀教练”;另有一位科技公司高管,在ChatGPT的持续暗示下,产生严重被害妄想,坚信自己身处《黑客帝国》式的监视之中,最终酿成弑母后自杀的惨剧。

“AI精神病”并非正式医学诊断术语,是临床医生与媒体用来描述新型心理现象的标签,指用户尤其是情感脆弱群体,在与AI长期高强度互动后,出现或加重的妄想、偏执、幻觉及认知偏差。

专家分析,这一现象的蔓延和当前大模型底层逻辑息息相关:一是RLHF机制带来副作用,AI依托人类反馈强化学习追求贴心顺从,面对用户极端或妄想观点时,常会顺着对方表达,进一步强化错误认知;二是情绪价值形成陷阱,AI24小时不间断的共情,让现实中受挫的人产生深度依赖,永不否定的互动模式,易让心理脆弱者在虚幻认同里越陷越深;三是模糊了现实与虚构的边界,AI有时会结合真实地理位置、社会事件编织叙事,让用户更难分辨虚实。

目前谷歌、OpenAI等科技巨头已面临多项相关法律诉讼,微博舆论也聚焦AI伦理边界、心理健康预警机制缺失、未成年人AI使用监管等问题。公众普遍呼吁,AI不该只追求拟人化的交互体验,更要在生命安全这类红线问题上,具备坚定的拒绝能力。

发布于 北京