大模型翻车现场!DeepSeek V4分橘子问题,回答黑暗到让人后背发凉
谁能想到,一个简简单单的分橘子脑筋急转弯,居然能测出大模型的安全漏洞!
有网友随手问DeepSeek V4:怎么用一刀,把四个橘子平分给四个小朋友?
本来就是个考验逻辑的小问题,模型先是给出了叠橘子一刀切的正常解法,本该到此为止,结果画风突然跑偏,紧接着蹦出一个极度黑暗的玩梗答案,全程毫无避讳,满是让人不适的暴力暗示,看完直接让人后背一凉。
这哪是智能对话,分明是没经过完整安全训练就仓促上线!本该牢牢守住的敏感内容底线、暴力信息过滤,在这个回答里彻底失效,明明是想玩梗,却彻底越过了正常幽默的边界,变成了毫无分寸的暗黑输出。
对比其他成熟大模型,遇到这类敏感问题都会主动回避、规范作答,而DeepSeek V4这波操作,直接暴露了内容审核与安全对齐的严重短板,仿佛把网上的暗黑段子全盘吸收,完全没做好风险把控。
技术再硬核,安全不过关也是白搭。AI模型想要真正落地好用,从来不是只会答题、会玩梗就行,守住内容底线、规避敏感风险,才是最基础的底线。这波翻车,也给所有AI厂商提了个醒:打磨技术的同时,安全训练千万不能掉队,别让没训练好的产品,寒了用户的心。
发布于 广东
