arxiv.org/abs/2510.04950
这篇论文的结论显示:对大模型还是要粗鲁/PUA一些。。不要再说“请”“谢谢”之类的词了。。
研究人员创建了一个包含50个基础多项选择题的数据集,这些问题涵盖数学、科学和历史领域 。每个问题都被改写成五种不同的语气版本:非常礼貌(Very Polite)、礼貌(Polite)、中性(Neutral)、粗鲁(Rude)和非常粗鲁(Very Rude),共计250个Prompt做测试。
结论是模型的准确率随着礼貌程度的降低而提高,范围从“非常礼貌”提示的80.8%到“非常粗鲁”提示的84.8% 。
不过测试只使用了ChatGPT-4o模型。
#AI创造营##微博兴趣创作计划##AI生活指南#
发布于 山东
