#AI心理医生会不会加重病情##AI已导致全球14人死亡##最AI的健康派##健闻登顶计划# 科学家伪造疾病“比克索尼狂症”(Bixonimania),AI竟当真传播!国际科学权威杂志《自然》撰写新闻专栏,介绍AI存在“轻信”和不能自我纠错等缺陷。
哥德堡大学医学研究人员阿尔米拉・奥斯曼诺维奇・通斯特伦在2024年虚构了一种名为比克索尼狂症的眼病,声称由蓝光导致眼睑发红、色素沉着,并故意在预印本平台上传两篇造假论文。作者名、单位、资助基金全为虚构:作者Lazljiv Izgubljenovic是假名,单位为不存在的大学,致谢中出现《星际迷航》和《指环王》等明显恶搞信息,文中还直接标注“本文纯属编造”。目的是测试大语言模型是否会将虚假信息当作权威医学结论输出。
结果非常成功!短短数周内,微软的Copilot、谷歌的Gemini、Perplexity和ChatGPT 等主流AI均将其认定为真实疾病,描述病因、发病率(1例/90000人),甚至给出就医建议,部分AI在用户仅描述眼干发红时就直接诊断为该病。
更严重的是,这一伪造研究被当作真实学术论文引用。印度研究者在Springer Nature旗下《治愈》(Cureus)发表文章,将比克索尼狂症当作真实疾病引用。该刊在《自然》问询后于2026年3月撤稿,理由是参考文献虚假,但作者反对撤稿。这表明部分科研人员直接使用AI生成引用,并未阅读原文。(说实话,没查到这本杂志,不是《自然》子刊)
截至2026年,部分AI模型已能识别其为伪造,但仍不稳定:同一AI在被直接询问“是否真实”时会否认,而搜索关键词时又会认定为真实疾病。多家公司称已升级模型,但均承认无法完全避免错误。
研究指出,AI对“学术格式”内容极度轻信。哈佛医学院研究显示,当文本呈现为专业论文、病历样式时,AI幻觉(编造事实)概率显著升高,远高于识别社交媒体谣言。
核心问题:LLM不具备真正的理解、判断与自我纠错能力,只能基于文本概率生成内容。只要虚假信息以学术形式存在,AI就会将其当作事实输出,且无法自主辨别漏洞。专家警告,科研与AI生态的信任已受冲击:AI不会自我修正错误,人类若过度依赖AI不做核查,虚假医学信息会快速污染学术体系与公众健康认知。
至少在医学领域,不是专家就很难驾驭AI。
