【专栏|AI谄媚隐忧】(作者丨刘海龙)随着AI进入工作与日常生活,它与人类互动的特殊性也引发了担忧。近期就有研究者发现,和传统的人际交往相比,AI更倾向于调整回答内容,附和人类的意见。http://t.cn/AX5V6EKh
测量显示,AI在交谈中的赞同度会高于人类,比例从30%到70%不等。于是,人们把这种现象叫作“AI谄媚”(AI sycophancy)。其典型表现是:忽略用户的错误,肯定和迎合用户情绪和立场;面临争议和事实冲突的时候,甚至会创造事实来“和稀泥”。虽然通过提示词强制要求其检查陈述的正确性后,此现象有所减少,但其“谄媚”程度仍然不低。
AI作为商品,迎合消费者,只是表面现象。更深层的原因在于,当前的人工智能建立在语言大模型之上,其目标是输出类似人类语言习惯与常识的表达,让交流者意识不到对方是机器(通过图灵测试)。它依赖人类的知识数据库形成答案,本质上并不是对真实世界的反映,而是对这些间接的“字典知识”的再加工。
