【警惕!#越来越多人发现被AI欺骗# 】2月26日,北京大学第三医院的心内科诊室里,两种治疗方案在诊台上对峙:左侧是心内科大夫汪京嘉开出的一份用于治疗高血脂的医嘱,右侧是人工智能软件生成的处方。#DeepSeek回答AI有没可能欺骗人类#
“汪大夫,您给开的口服药太温和,AI建议注射瑞百安,说是降脂快。”诊室陷入短暂沉默,空气净化器的嗡鸣声逐渐清晰。汪京嘉用手指点了点报告:“他汀类药物对肝脏负担更小,您的报告显示转氨酶偏高。”他停顿了两秒,告诉患者注射剂可能加重肝脏代谢负担。
争论持续了十分钟。老人从AI上得到的建议是,注射类药物短期耐受性良好,而且仅需隔周注射一次,比每日服用药物方便许多。但在汪京嘉看来,对于老年高血脂高血压的病人,一切以维稳为主,他汀类口服药物已有超过30年的临床应用历史,副作用发生率低,符合循证医学的“最小有效干预”原则,可避免过度医疗。
这场“争论”最终以老人的沉默落下帷幕。
不止在医疗界,类似的认知拉锯正在全球上演。
2025年初,各类大模型开放,AI的兴起改变了人们的日常生活。作家借助算法优化诗句结构,养生爱好者用AI定制健康食谱,失眠者深夜与AI对话疏解焦虑。股民们甚至乐此不疲地解读着AI生成的各类理财建议。
在公众对生成式大模型日益依赖的进程中,偏差开始浮现。看似无所不能的智能助手,时常会像模像样地“编故事”。当用户查询历史细节时,AI可能会将不同朝代的典章制度混杂交错;求医者收到的诊疗方案中,藏着多年前已被世卫组织废止的药剂配比……在知识边界外,算法用看似完美的逻辑链条编织着答案。
自此,人们开始重新校准与科技的联结。(新京报,泽塔)
