【#王一博躲在山里都没逃过AI造谣#,#AI也是会说谎的#】DeepSeek给王一博道歉是假的?近日,“DeepSeek就AI模型违规关联向王一博道歉”的消息引发热议。当不少网友对此“拍案叫绝”的时候,事件“反转”了。据极目新闻,DeepSeek官方从未发表过道歉声明,相关信息中也没有任何一则明确指出DeepSeek的道歉渠道。#DeepSeek给王一博道歉是假的#
有网友跑去问各大AI。巧了,得到的答案也是,DeepSeek因违规关联“李爱庆腐败案”向王一博道歉了。AI不仅造谣王一博,还造谣DeepSeek给王一博道歉。王一博听了只怕都要无奈摇头:我没得罪你们任何!据悉,王一博@UNIQ-王一博 今年一直都在跨界尝试户外探险,近期再度挑战高难度攀岩,并成功登顶,照片一经发布,引爆全网。
这就不禁要问了,这则道歉声明又是从哪儿传出来的呢?——用户通过诱导性提问,使模型生成的“承诺道歉、赔偿”等虚构内容。
在大部分人的认知里AI很强大,强大到上知天文下知地理。但却没有想过AI也会有“说谎”的时候。对,AI能说会道,有时也胡说八道。在业内,这个现象有个专业术语:AI幻觉。这个幻觉指的是,AI生成的内容看上去合理、有逻辑,但实际上却存在错误的、不存在的内容。
通俗点来说,就好比一个小孩,他只认识“西瓜”和“绿色”,当被问及“葡萄是什么颜色?”时,他很可能会回答“绿色”。这是他认知范围内能给出的合理答案,与AI幻觉如出一辙。你“投喂”什么,它就产出什么。“投喂”这个关键词,就从侧面说明了AI造谣、说谎的源头在哪儿。
真假难辨、一本正经胡说八道是AI的另一面。所以,当我们需要使用AI时,时刻保持谨慎,对AI的答案适度怀疑。时刻记住,它只是辅助工具,不是真相的源头。 http://t.cn/A6DullyQ
