泰晤士报的文章:使用 AI 生成的文字剥夺了我们思考的天赋Using AI-generated text robs us of the gift of thought
写作是两个头脑之间的交流行为,但聊天机器人只是机械地产出文字,其中没有任何思考
这是一种令人毛骨悚然的体验。社交媒体上一条由熟人发布的帖子,却听起来完全不像他们本人的风格。文字显得精致、犀利,甚至富有戏剧性。大量句号取代逗号。句式奇怪地重复:“这不是一个 X。这是一个 Y。”或者:“没有 A。没有 B。只有 C。”提出一个问题,接着立刻回答。还有那些长破折号——“em dash”——你甚至不确定键盘上哪里能找到它们。慢慢地,你开始意识到:这根本不是你的朋友在写,而是一个聊天机器人。
从某个角度来看,这还挺好笑。几十年来,大学人文学科一直在强调作者不重要;文本是自由漂浮的能指,没有固定意义。当然,这是错的。如果真是那样,讲师们就不会费心自己写东西了。但现在我们正站在他们所想象的世界边缘。文本在网络上四处漂流、失去依托。我们在其中读出意图,就像从茶叶渣或云彩里读意义一样。声音似乎充满个性,但这些文字背后实际上“无人存在”。
每当我注意到这样的风格,我都会在心里责备一下把它召唤到屏幕上的那个人。当实际操盘者不是你自己时,假装自己在表现地“直接”与“真实”又有什么意义呢?这大概就像《绿野仙踪》中多萝西拉开帘幕后看到真相的感受。但得知自己还能识别这些迹象,多少让人松一口气。真正令人担忧的是,当我们再也分辨不出来时会发生什么。
为了生成文本,聊天机器人依赖大型语言模型(LLM):通过接触海量数据来学习模式的计算网络。《纽约时报》最近一篇文章深入分析了 LLM 那种“不朽的文风”。除了语法上的习惯用法外,还有词汇上的线索。比如“delves”这个词,在尼日利亚英语中常见,但现在也出现在成千上万篇生物医学论文里。
另一个明显的短语是“I rise to speak”(“我起身发言”)。到八月为止,这个美国式表达在英国议会演讲中的出现频率比前一年高出近五倍。AI 显然不尊重区域边界。如果某个词或短语在它依赖的大规模数据集中很常见,那么它很可能最终也会进入你的表达方式。
但让我们快进几年,假设机器学会了抹除所有暴露自身的恼人迹象。同时再假设一件似乎极可能发生的事:对它们的依赖变得更加普遍。现在的常态仍是人类亲自写作。那些用 AI 来生成邮件、论文、文章或演讲的人,实际上是在“搭便车”,利用了社会普遍的信念——即一篇文字代表作者头脑中真正产生的思想。一旦这种信任消失,我担心一个深度异化的未来正在等着我们。
问题不仅是新一代会出现智力萎缩——尽管他们显然会。写作是一种在纸面上的思考方式。当你写下内容,再编辑、重新安排,你实际上是在建构一个思想。而当机器为被动的读者喷出已经成形的段落,让他们随意挪用并署上自己的名字,这项关键技能就会丧失。
但不止如此:交流本身将会怎样?在我所预测的情景中,文本仍然很多,但“写作”却不再多。严格来说,写作需要思想通过符号从一个头脑传递到另一个头脑。这仍然是大多数阅读活动的精神。即使只是自来水公司发给你的模板信函,人们仍然隐含地相信原始范本是由某个人写出的。而当涉及更传统的个人表达——论文、私人邮件、小说、演讲等等——将它们视为有意的产物,是理解它们的基础。
阅读这类写作,就是与作者进入某种关系,尽管短暂。读者相信自己正在遇见某个特定人的思想(或罕见地,一个合著群体的思想)。处理内容的同时,他们也在更好地了解这个作者:他是否幽默?是否可靠?是否善于发现联系?还是喜欢夸大?挑拣事实?喜欢鼓动人群?想想你最喜欢的专栏作者,或者最讨厌的那位。你难道不觉得自己对他们是怎样的人有一种感觉,因此知道该如何权衡他们的文字?
实质上,议员的演讲、学生的论文、情书也都一样。你不是在抽取不考虑来源的“信息”,而是在与提供信息的人建立关联。当 LLM 几乎无处不在而又(假设)无法察觉时,我们将陷入某种认识论炼狱:知道这种做法四处泛滥,却无法判断具体在哪儿。每一次交流都会被怀疑,无论出处如何。人们已经感到疏离、不信任、偏执了,而这只会使情况更糟。
理论上有解决方法。例如政府可以强制科技公司给 LLM 的输出“加水印”。但那需要我们真正意识到自己正在失去什么,并为此感到愤怒。我认为我们应该如此。当然,我也可能错了。如果我错了,你以后可以来找我。至于机器人,你永远不能这么说。
