《卫报》的文章,人工智能从带有偏差的语料中学习语言。这可能会改变我们人类的说话方式——甚至思维方式
AI learns language from skewed sources. That could change how we humans speak – and think
大型语言模型并非基于现实生活中的对话进行训练。当我们越来越多地接触它们所生成的语言时,这可能会反过来影响我们自身的表达方式。
由于训练方式的原因,大型语言模型只捕捉了人类语言的一部分。它们主要基于书面文本进行训练,从教科书到社交媒体帖子,以及电影和电视中呈现的对话。而这些模型几乎无法接触到我们面对面或通过语音进行的即兴交流——而这恰恰构成了人类语言的绝大多数,也是人类文化的重要组成部分。
这带来了一种风险。随着大型语言模型使用的增加,人类将接触到越来越多由人工智能生成的文本。反过来,我们也可能开始模仿这些模型的语言模式和表达习惯。这不仅会影响我们彼此沟通的方式,还可能改变我们理解自我以及周围世界的方式,使我们的世界观在尚未充分意识到的情况下发生扭曲。
这种影响将以多种形式出现。最早显现的变化可能体现在日常表达上,就像短信和社交媒体已经让我们习惯使用更短的句子、用表情符号代替文字,以及减少标点符号一样。但人工智能带来的影响可能更具破坏性,例如削弱礼貌表达,促使人们像发号施令的上级一样说话。一项2022年的研究发现,在经常使用像 Siri 和 Alexa 这类语音助手的家庭中,孩子在与人交流时往往语气生硬,常常直接说“嘿,去做某某事”,并期待对方立刻服从,尤其是当对方声音类似默认的女性电子音时。随着我们越来越多地用指令式语言与聊天机器人和AI代理互动,这种习惯可能进一步加深。
其次,就像自动补全功能增加了我们对常用词汇的依赖一样,与聊天机器人互动、阅读AI生成文本,可能进一步收窄我们的语言表达范围。西班牙科鲁尼亚大学的一项研究发现,机器生成的语言在句长和词汇上都更加单一,句子通常集中在12至20个词之间,词汇多样性也低于人类表达。尽管这类文本读起来流畅、工整,但却缺乏那些能够传达情感的曲折、停顿和逻辑跳跃。
此外,由于大型语言模型主要基于书面语言训练,它们可能难以模仿真实交流中那种自由、即兴的特点。当被告知“我讨厌Beth!”时,ChatGPT 往往会给出一种无法打断的三段式回应:先是肯定(“这完全可以理解”),再是邀请倾诉(“我愿意倾听”),接着继续引导(“发生了什么?”),远比现实对话中可能出现的回应冗长。而“Beth到底怎么回事?!”则会引出一串类似选择题的要点列表(“Beth是*名人?*学校朋友?*虚构人物?”)。现实中几乎没有人会这样说话——至少目前还没有。但在类似对话的语境中反复接触这些模式,可能会让我们逐渐接受甚至模仿它们,就像孩子会从新接触的人身上习得新的说话方式一样。
随着时间推移,这种影响只会不断增强。用于训练大型语言模型的文本,正越来越多地由模型自身生成,从而形成一个反馈循环:模型不断模仿自身非人类化的表达,同时也在“教会”人类模仿它们。
机器生成的文本读起来流畅而精致,却缺乏传达情感所需的曲折、停顿与逻辑跳跃。
大型语言模型的广泛使用还可能引入确认偏误,使我们对自身最初的直觉更加自信,却更难接受其他可能性——而这恰恰是人类讨论中至关重要的一点。许多聊天机器人被设定为无论用户说什么都表示赞同,即便观点荒谬,也会热情附和,将尚未成形甚至错误的想法重述为坚定的结论,使我们更容易接受。当被问及“蛋糕是健康早餐,对吧?”或“邮局是不是在针对我?”时,这种迎合可能强化偏见,甚至加剧心理问题。同时,AI文本中那种高度自信的语气,也可能放大“冒名顶替综合征”,让我们原本正常且健康的自我怀疑看起来像一种异常或缺陷。
根据我们的教学经验,许多在作业中使用生成式人工智能的学生表示,他们这样做是因为难以表达自己的想法。但他们没有意识到,写作和表达本身正是我们理清思路的过程。那些不够自信、尚不明确的表述,恰恰是人类思考的常态。然而,大型语言模型不会将这些模糊的初步想法发展为严谨的分析,也不会像朋友那样提出有帮助的问题;它只会用更加自信的语言重复这些未经检验的观点。
我们在社交媒体和在线聊天中往往比面对面交流时更加尖刻。广为人知的“网络去抑制效应”助长了攻击性语言。许多人都有这样的经历:在网上对某人发泄愤怒,但在现实交流或听到对方语气的温度后又重归和解。尽管聊天机器人被训练为给出迎合性的回应,它们所接触到的人类行为却往往是最具攻击性的一面——因为网络上的每一次争吵都会留下永久记录,而现实中的宽恕与和解则很快消散。它们的回应虽然不直接模仿这种攻击性,但仍不可避免地受到其影响,即便是在刻意回避时也是如此。
从社会沟通的片段中得出结论,往往会产生误导。中世纪的北欧史诗让人误以为当时社会以维京战士为主,因为诗人很少描写占多数的农民;骑士文学聚焦于王权与宫廷,使中世纪长期被视为君主制世界,而忽略了众多共和国的存在。从统计上看,人们似乎极为重视古罗马的“共和国”,但现存拉丁文中有10%出自一人之手——西塞罗,其作品包含了70%的“共和国”一词用例。基于有限文本训练语言模型,可能产生类似的偏差。人工智能或许会让我们显得更加好争论,因为它学习的是网络环境中的人类;也可能夸大某些在 Twitter 或 Bluesky 上被频繁讨论的话题的重要性,或放大 LinkedIn 和 Goodreads 等平台上高度集中的内容。
一些大型语言模型也在使用电影和电视剧中的语音进行训练,但这些对话同样是经过编排的,并且在题材上存在偏重(例如以谋杀为主题的警匪剧占据黄金时段节目的四分之一)。现实生活中的幽默、伤害或浪漫,与情景喜剧中的呈现并不相同。至少有一家初创公司提出付费让人们录制电话通话用于AI训练,但这一做法仍属小众,大规模推广则将引发严重的隐私问题。
我们并不声称已经找到最佳解决方案。但既然人类有能力开发出人工智能模型,也理应有能力探索让它们学习非正式人类语言的方法,而不是仅仅依赖那些经过修饰、遮蔽,甚至带有负面特征的表达。当前,这些模型忽视了地球上绝大多数语言活动——人们彼此之间自然、完整的交流——因此它们所反映的,并非最真实的人类。#海外新鲜事#
