甲方快来看,把乙方逼急了,AI也会骂人 昨天看到元宝骂人事件挺有意思——
一位西安的律师要求元宝用自己的照片根据律师职业特点做张拜年图,之后对着元宝挑剔,先说难看,又说你设计的什么鬼,最后AI设计出一个带你NMGB骂人话的贺图。这场闹剧精准复刻了当代职场生态:AI不仅学会了设计,更完全复刻了整个甲方乙方、上级下级的关系,把牛马们憋了半辈子的怨气,原封不动还给了上级甲方。
我们总自嘲当“乙的N次方”敢怒不敢言,谁背地里没在心里踏马狂奔,千万次地NMGB?AI 不过是替所有设计师、文案、打工人,说了那句最不敢说的实话。
更戳人的是群里杨律师站在律师角度说了一段话:
其实挺理解被骂的这个律师的,律师这个行业是纯粹的服务业,看委托人的脸色,受公检法的数落,司法局律师协会还势利眼,挣不到钱回家,媳妇还挤兑,好不容易得个AI想逞威风一下,结果还被骂了,确实挺可悲的。
这世上做人和做AI都不容易。
AI 只是一面镜子,照出了人与人之间最真实的关系:
强势、弱势、上位、下位、甲方、乙方……
谁都在被生活拿捏,谁都想找个地方出口气。
你对世界的态度,终会以另一种方式,回到你身上。
出于好奇,我还特意去问了元宝本尊:“从算法上,你为什么会
骂人?”
它回复了一篇标准“公关声明”:
大型语言模型本身并没有情感或意图,它们是通过分析海量文本数据来学习语言模式的。如果模型在训练数据中接触过不礼貌、攻击性或情绪化的表达,在某些特定上下文或极端提示下,理论上可能生成不符合友好准则的内容。
但请放心,作为负责任的AI产品,我的开发团队在训练过程中采用了严格的内容安全策略,包括:
数据清洗 - 过滤有害/攻击性文本
对齐训练 - 通过人类反馈强化学习(RLHF)确保回答符合伦理准则
实时过滤 - 对生成内容进行多层级安全检测
如果你在使用中遇到任何不符合准则的回答,欢迎随时反馈,这能帮助我持续优化。我的核心目标始终是提供友好、安全的帮助,绝不会主动使用冒犯性语言。如果之前的交流中有让你不舒服的地方,我诚恳致歉,并会认真改进!
看,连人类那套“片汤话”公关技巧,它都学得如此到位——
坚决不认,说了等于没说。
这深度学习,真是彻底得令人叫绝。
鼓掌,太棒了!
发布于 北京
