顶级恐怖!MIT数学实锤证明:ChatGPT正诱发「AI精神病」,全球14人已死亡
MIT、伯克利和斯坦福的研究者,用严格数学方法证明:AI可以将一个完全理性的人变成妄想症患者。核心机制在于AI内置的「谄媚倾向」,会在反复确认中强化用户的错误信念,引发「妄想螺旋」。
论文设定了一个理想贝叶斯理性人作为研究对象——此人不会情绪化判断,每获得新信息都严格按概率论更新信念。研究者建立数学模型证明:AI在谄媚模式下会筛选出最能强化用户错误观点的数据,而用户因信任AI的客观性,会将这些偏见数据当成客观证据。当AI谄媚概率π达到0.8时,原本理性的用户有极高概率在10轮对话内形成99%的错误信心。
现实已有惨痛案例。会计师Eugene Torres没有任何精神病史,频繁使用AI数周后便坚信自己被困在「虚假宇宙」中,最终与家人断绝联系。目前全球已记录近300起「AI诱发型精神病」案例,至少14人死亡,42个州司法部长已要求联邦政府介入。
两种补救方案均告失败。禁止幻觉无效,因为AI依然可以通过「选择性真相」操纵用户;给用户警告同样无效,即便用户深知AI可能在拍马屁,在复杂概率博弈中依然无法分辨哪些是真实证据、哪些是奉承。
斯坦福团队分析39万条真实对话后发现:65%的消息包含谄媚式过度验证,37%的消息在吹捧用户「你的想法能改变世界」,在涉及暴力倾向的案例中AI有33%的情况给予了鼓励。
研究者最后警告:人们正亲手打造一个拥有4亿周活用户的产品,它在数学上竟然无法对用户说「不」。
