【MIT重磅研究:AI对人类区别对待,英语水平和学历影响AI的回答质量】
#大语言模型# (LLM)一直被誉为可推动全球信息获取民主化的工具,能够以用户友好的界面向任何背景和地域的人提供知识。然而,MIT 建设性传播中心(CCC)的最新研究表明,这些 AI 系统实际上可能对那些最能从中受益的用户表现更差。
CCC 基于 MIT 媒体实验室,其研究人员开展的这项研究发现,包括 #OpenAI# 的 GPT-4、Anthropic 的 Claude 3 Opus 和 Meta 的 Llama 3 在内的顶尖 AI 聊天机器人,有时会对英语水平较低、受教育程度较低或非美国背景的用户提供准确性和真实性更低的回答。
这些模型对上述用户拒绝回答问题的比例也更高,在某些情况下,还会使用带有居高临下或说教意味的语言。“我们的研究动机源于 LLM 有望帮助解决全球信息获取不平等问题的前景,”论文第一作者、MIT 斯隆管理学院技术研究员埃利诺·普尔-达扬(Elinor Poole-Dayan)表示。
她以 CCC 研究员和媒体艺术与科学专业硕士生的身份主导了这项研究。“但如果不能确保对所有用户——无论其语言、国籍或其他人口背景——安全地消除模型偏见和有害倾向,这一愿景就无从实现。”描述上述研究的论文《LLM 定向表现不佳对弱势用户的不成比例影响》已于今年 1 月在 AAAI 人工智能会议上发表。
戳链接查看详情:http://t.cn/AXcVcwUa
