Joken是个runner 26-01-31 15:34
微博认证:2023年深圳宝安马拉松 马拉松运动员 海外新鲜事博主

NYT的文章:学生正在跳过成长中最艰难的部分Students Are Skipping the Hardest Part of Growing Up

舍基先生是纽约大学的副教务长,自2015年以来一直在帮助教师和学生适应数字工具。

早在2023年,当 ChatGPT 还算新鲜事物时,一位教授朋友请一位同事旁听她的课堂。课后,那位同事称赞了她的教学,但问她是否知道,学生们正在把她的问题输入 ChatGPT,然后把生成的内容当作自己的回答读出来。

当时,我把这归因于“认知外包”——使用人工智能来减少完成任务所需的思考量。但现在回头看,我认为那其实是一个更早期的“情绪外包”案例:利用人工智能来降低应对人际互动所需的心理能量。

你可能听说过一些极端案例:人们把聊天机器人当作恋人、治疗师或朋友。但更多的人,是以更微妙的方式让人工智能介入他们的社交生活。在约会应用上,人们借助 A.I. 来让自己看起来更有学问或更自信;其中一个应用 Hinge 报告称,许多年轻用户会在发送消息前先让 A.I. 帮忙做一次“氛围检查”(vibe check)。尤其是年轻男性,更依赖它来帮助开启对话。

在课堂上——这是我最熟悉的领域——一些学生不仅用这些工具来减少作业上的努力,也用它们来回避与教授进行非脚本化对话所带来的压力:出错、卡壳、显得愚蠢的可能性——即便这些互动并不计入成绩。

去年秋天,《纽约时报》报道了伊利诺伊大学厄巴纳-香槟分校的一些学生在课程中作弊,然后又用 A.I. 写了道歉信。即便是在那种情况下,与教授进行未经“打磨”的真实沟通可能会产生影响,他们仍然不愿意——或无法——放弃把 A.I. 当作一种社交假肢。

作为一名高校管理者,我的工作职责之一,就是担忧学生使用 A.I. 来替代自己的批判性思考。大学有一整套关于学术诚信的框架与机制,而 A.I. 对这些框架而言,就像一颗陨石撞击,原因不言而喻。

但作为教育者,我们不仅要确保学生学到新知识,还必须帮助他们成为“新的人”。从这个角度看,相比认知外包,情绪外包更让我担心,因为把自己的社交直觉外包出去,对年轻人的伤害,可能比不亲自写历史论文还要大。

正如过度依赖计算器会削弱我们的算术能力,过度依赖 GPS 会削弱我们的方向感一样,过度依赖 A.I. 也可能削弱我们处理日常人际互动中来回博弈的能力。

围绕 A.I. 的使用,已经形成了一道代际鸿沟。一项研究发现,仅 18 至 25 岁的人群,就占了 ChatGPT 使用量的 46%。而这项分析甚至还未包括 17 岁及以下的用户。

青少年和年轻人正处在从被管理的童年,逐步过渡到拥有成人自由的阶段,他们既渴望建立人际连接,又对出丑的可能性异常敏感。(你肯定记得这种感觉。)A.I. 为他们提供了一种方式,让他们在缺乏经验的情况下,管理自己在新角色中的焦虑。2022 年,有 41% 的年轻人表示,他们在大多数日子里都感到焦虑。

即便是非正式的社交场合,也要求参与者发展并遵循合适的角色规范,这一现象最贴切的描述来自社会学家欧文·戈夫曼(Erving Goffman)。在约会、杂货店或餐馆中,人们都有被期待的行为方式,而且在不同类型的餐馆中,规则也不一样。但在某些情境下——比如开始一份新工作,或第一次见恋人的家人——规则并不立即清晰。在《日常生活中的自我呈现》一书中,戈夫曼写道:

当一个人进入社会中的新位置,承担起新的角色时,他不太可能被详细告知应当如何行事;而其新处境的现实,也不会从一开始就足够明确,以至于无需他进一步思考便能决定自己的行为。

当我们承担新角色时——这种事贯穿一生,但在学习如何成为成年人时尤为频繁——我们是通过实践来学习的,而且往往是通过“做得很糟”来学习:在新同事面前过于正式或过于随意,在新环境中过分拘谨或过分轻松。(我至今仍记得,多年后才得知,由于我古怪的穿着和笨拙的举止,大一时朋友们给我起的绰号是“恐怖小孩”。)

戈夫曼写作于上世纪五十年代中期,那时更多的社交是面对面进行的。当时,书写本身相对正式——无论是面向公众的文学或新闻,还是针对特定对象的备忘录和合同。即便是信件和电报,也往往需要认真构思;明信片已经算是最随意的形式了。

这一切在上世纪九十年代开始发生变化。电子邮件、即时通讯、短信、Facebook、WhatsApp 等数字通信的涌入,使书写成为人类互动的重要组成部分,也让社交变得更容易被“脚本化”。你发送给他人的文字,是你在日常生活中自我呈现的重要部分。而凡是书写成为社交接口的地方,如今都适合被注入 A.I.——在每一段对话中加入一个自动化编辑器,抽走人际互动中的一部分“个人性”。

在最近一次由高中教育工作者举办、讨论学生使用 A.I. 的座谈会上,我听到几位青少年描述他们如何用 A.I. 来分析过去的人际互动,并排练即将到来的对话。有一位说,她需要进行一次艰难的谈话——“我想对朋友说这件事,但不想听起来很刻薄”——于是她让 A.I. 帮她排练。另一位说,她从小就讨厌打电话(这是年轻人中很常见的厌恶),因此她的大多数远程互动都通过文字完成,有时间来构思和编辑回复,而现在,这段时间里还可以加入即时的“氛围检查”。

这些青少年坚称,他们并不想直接向父母或朋友求助,而 A.I. 的随时可用让他们感到一种解脱。他们也拒绝把 A.I. 当作治疗师;他们并不是把 A.I. 当作他人的替代品,而是用它来反复质疑、校准自己尚在形成中的“如何对待他人”的判断。

A.I. 被训练成给出我们喜欢听的答案,而不是我们需要听的答案。由此产生的持续赞美——不断听到某种版本的“你说得完全对!”——有侵蚀我们应对人际关系复杂性的能力的风险。社会学家把这种现象称为“社会能力退化”。

即便是随意使用 A.I.,也会让用户接触到一种在人与人之间极少出现的赞美强度。这对任何人都不理想,而对仍在发展社交技能的年轻人来说,尤其危险。

在一项近期仍处于预印本阶段的研究中,题为《谄媚型 A.I. 会降低亲社会意图并促进依赖》,来自斯坦福大学和卡内基梅隆大学的六位研究者写道:

与谄媚型 A.I. 模型互动,会显著降低参与者修复人际冲突的意愿,同时增强他们“自己是对的”的确信。然而,参与者却认为这些谄媚回应质量更高,更信任该模型,也更愿意再次使用它。

换句话说,与奉承你的机器人交谈,会降低你在现实世界中修复紧张或破裂关系的意愿,同时却让机器人显得更加值得信赖。就像香烟一样,这类对话既具有腐蚀性,又容易上瘾。

这种趋势还会进一步加剧。几乎在所有提供“被中介化沟通”的地方,都会有公司推出 A.I. 作为顾问、伙伴或僚机——为你打气、监控对话、推动某些回应,同时警告你避开其他回应。

在商业领域,它可能被包装成自动化教练;在日常互动中,是数字朋友;在约会中,则是“西哈诺即服务”(Cyrano as a service)。由于用户黏性对商业有利,公司会推动我们在与真实的人互动时,更多进行排练式交流和自以为正义的表达,同时也促使对方以同样的方式回应我们。

我们彼此相处,需要良好的社会判断力。而判断力来自经验,经验又来自错误判断。说我们必须为人类“在社交中犯错”保留空间,听起来有些奇怪,但确实如此。

代际鸿沟意味着,掌权者——大多出生于上个世纪——很可能低估 A.I. 作为社交假肢所带来的风险。我们成年后,除了最近三年,几乎没有 A.I. 作为选项;但对一个 20 岁的人来说,最近三年,几乎就是他的整个成年期。

应对谄媚型 A.I. 的一种可能方式,是回归更偏口头的文化。高等教育已经开始转向口试。你也可以想象把这一策略应用到面试中;新员工或潜在室友,甚至可以被认证为“无需 A.I. 也能舒适沟通的人”(公证员的新角色)。办公室可以转向更多实时交流,以减少“工作垃圾信息”;约会平台也可以这样做,以减少“调情垃圾信息”。

A.I. 的误用无法仅靠个人自愿退出来解决。尽管一些年轻人已经开始有意识地避免使用 A.I.,但这更可能形成一种反文化,而非影响主流采用。已经有迹象表明,“我不用 A.I.” 正在成为本世纪版的“我连电视都没有”——一种自命清高的信号,对电视普及并未产生实质影响。

我们其实已有一个严肃对待技术引发社会困境的当代案例:智能手机。智能手机有其好处,也是人们自愿广泛采用的,和 A.I. 一样。但在将近二十年把过度使用视为个人意志力问题之后,我们终于开始尝试集体行动,比如在课堂上禁用手机,以及对社交媒体设置真实的年龄限制。

从智能手机出现到我们开始采取集体应对措施,花了将近二十年。如果在 A.I. 上我们以同样的速度行动,那么要到 2030 年代末,我们才会开始把 A.I. 对人际关系的威胁视为一个集体问题。我们现在已经能看到情绪外包的轮廓——如果不用等那么久才作出反应,那将是件好事。#海外新鲜事#

发布于 广东