经济学人的的文章,年轻人如何使用AI,比使用多久更重要How the young use AI matters more than for how long
这一点削弱了“一刀切禁令或时长限制”的合理性
一种“共识”正在迅速形成:社交媒体正在损害年轻人的心理健康,而生成式人工智能则开始削弱他们的思考能力。这种焦虑可以理解。AI工具以惊人的速度融入青少年的社交生活,引发了关于年龄限制、“AI陪伴者”禁令以及更严格监管的呼声。
但这场讨论往往基于一个假设:AI对所有年轻人的影响大致相同,并且把“使用时长”视为主要风险指标。新出现的证据却表明恰恰相反。同样的技术,对一些年轻人来说可以拓展机会,而对另一些人来说,则在悄然取代人类支持。
那么,年轻人的社会与情感环境,会如何影响他们使用生成式AI的方式、时机与动机?这对政策制定意味着什么?作者所在的健康数据公司在2025年11月对美国13至24岁人群开展了一项大型研究,提出了100多个问题,涵盖AI使用、其对生活的影响,以及心理健康与生活背景。
研究发现:高频使用AI的人中既有发展良好的,也有深陷困境的;低频使用者中亦如此。同一种工具,会因用户的社会经济背景、压力来源以及“人力资本”(技能与知识)不同,而呈现出截然不同的作用。年轻人使用AI的方式存在显著差异。
对一部分人而言,AI是“上升引擎”。大约十分之一的年轻人属于乐观的“重度用户”,他们将生成式AI视为学习与机会工具,用来提升技能、激发创意、探索职业路径。其中三分之二以上认为AI带来了新的机会,超过一半表示它增强了解决问题的信心,并让他们对世界更有希望。黑人青年以及面临经济困难的人更容易属于这一群体,这表明在资源稀缺的情况下,AI可以扩大获取知识与机会的渠道。
而对另一组规模相近的人来说,AI成为替代现实中缺失的社会与情感支持。这一令人担忧的群体在孤独时转向AI寻求对话、情感安慰和建议。这些高频用户报告更高水平的心理困扰,并更可能遭遇欺凌、歧视或经济压力。AI或许比“完全没有支持”要好,但通用型系统并不是为安全承担这种角色而设计的,它们也无法可靠地判断何时应引导年轻人寻求专业帮助。
还有一类人则几乎完全与技术保持距离,约占十分之一。他们不认为AI是实用工具,并对其影响感到焦虑。他们的低参与度更多反映的是对社会整体的悲观,而非具体的负面使用体验。研究发现,白人和LGBTQ+青年在这一群体中比例较高;对LGBTQ+群体来说,AI加剧了他们对监控与隐私的担忧。
不过,接近一半的年轻人处于中间状态。他们以务实方式使用AI,用于探索、学习和解决问题,但不会依赖它来建立身份或获得情感支持。强有力的社会支持与归属感似乎起到了缓冲作用,使他们能够将AI视为工具,而不是关系的替代品。
那么,这对政策与实践意味着什么?直觉上限制使用或设定时间上限,可能并非良策。近期一些提案——从学校禁止使用ChatGPT,到美国联邦层面的GUARD法案——都体现出一种思路:将减少接触作为主要安全机制。但如果AI对一些人是机会引擎、对另一些人是效率工具、对还有一些人则是情感替代,那么“接触时长”就不是应被监管的核心变量。
真正需要的是一种多维度的应对方式,以匹配这项技术在年轻人生活中复杂而多样的角色——某种程度上,它也映射了他们的现实处境。
首先,设计具有强大且智能安全护栏的AI系统至关重要。企业有责任确保其产品不会让年轻用户遭遇有害互动,政策制定者也应追究其责任。一些地区政府(如加州和纽约州)已开始推动相关措施,例如要求更明确的信息披露以及限制“情感操控式设计”。但仅靠产品层面的修补仍不够。
更关键的问题是:技术最终扮演什么角色。政策应关注AI在何种情况下开始替代人类支持,以及这种替代是否安全。这意味着要建立从AI工具通向现实帮助的路径,例如便捷连接心理健康服务,同时提升学校和家庭的“AI素养”,帮助年轻人更好地使用这些系统。
值得信赖的成年人在其中至关重要。现实中,家长对孩子使用AI的理解,往往与实际情况存在差距。但父母及其他可信赖的成年人,仍是支持体系中最关键的一环。帮助他们开展更有信息基础的对话,而不是单纯限制使用,将至关重要。专家建议,这类对话应包括:帮助青少年理解AI的能力与局限、讨论隐私风险,以及培养对AI回答的批判性思维。这方面也可以借鉴我们在社交媒体时代“未能有效指导家长”的教训。
总而言之,讨论需要转向。与其只问年轻人花了多少时间使用AI,不如问:这项技术如何嵌入并影响他们所处的社会环境。生成式AI本身不会单独决定年轻人的福祉,但它可能揭示——甚至放大——他们周围人类支持系统的优势或缺失。#海外新鲜事#
