社交媒体过多,会导致AI的推理能力退化!
10月31日,发表在Nature News上的一项新研究表明,过多的社交媒体会让AI聊天机器人“大脑腐烂”,尤其是使用低质量数据的大模型会导致推理过程错乱。
根据10月15日发布于arXiv的预印本的研究,当大型语言模型使用大量低质量社交媒体内容训练时,其推理能力和信息检索准确性会显著下降。
美国德克萨斯大学奥斯汀分校的研究人员指出,高质量数据需满足语法正确等标准,但现有标准难以区分内容质量差异。研究团队专门研究了简短、肤浅的流行社交媒体内容对模型的影响,发现使用这类数据训练的模型会跳过推理步骤,直接输出错误答案,甚至在多项选择题中频繁出错。
更值得注意的是,随着训练数据中低质量内容比例增加,模型推理能力呈下降趋势。西澳大利亚大学专家Mehwish Nasim对此评价道,这印证了人工智能领域的经典原则:“垃圾进,垃圾出”。
研究团队基于社交媒体平台X的100万条公开帖子,对Meta的Llama 3和阿里Qwen等开源模型进行测试。结果显示,经过低质量数据训练后,模型不仅推理能力受损,人格特征也发生异常变化——原本表现随和、外向的Llama模型开始显现精神病特质。
尽管研究人员尝试通过调整提示指令、增加优质数据比例等方式改善模型表现,但效果有限。即使要求模型反思修正推理错误,它仍会跳过关键步骤。
这表明,大语言模型解决数据质量问题是迫切任务,需要更深入的方法创新。
#热门微博# #科技快讯# #ai大模型# #人工智能#
发布于 广东
