我最近一直思考一个问题:普通人如何用好大模型,现在很多人的用法可能用反了。。
MIT Media Lab今年一项脑电实验发现,习惯让ChatGPT代写的人,大脑额叶和颞顶叶区域活动显著下降——这两个区域恰恰管注意力、工作记忆和语言处理。研究者给这个现象起了个名字,叫"认知债务":你以为省了时间,其实是在透支大脑。更残酷的是,当这些人被要求脱离AI独立写作时,脑神经连接度明显弱于从未用过AI的对照组。短期效率换来的,是长期认知能力的萎缩。
微软和卡内基梅隆大学对319名知识工作者的调查印证了同样的逻辑:对AI越有信心,批判性思维投入越少;反而是对自己能力有信心的人,面对AI输出时思考得更深。
那大模型就不该用了?不是。关键在于用法。
2026年一篇发表在ScienceDirect上的论文提出了一个框架,核心就两条:第一,保留认知摩擦——别让AI把思考过程抹平了;第二,把大模型定位为"临时思考伙伴"而非答案来源。
别上来就问AI要答案,而是先自己想清楚一个判断,然后让AI来挑毛病、找漏洞、提反驳。你不是在向它求教,你是在跟它辩论。
这个肯定不是我首先发现的,于是我就找论文。其实早在2024年,Khan等人2024年的研究表明,与有挑战性的反驳论点互动,能产生更准确的判断和更深的理解。微软2026年的后续实验也发现,在接受AI输出之前被要求先做结构化反思的人,推理质量远超直接采纳AI结果的人。
所以普通人用大模型的正确姿势,不是"有问题找AI",而是"有答案找AI吵架"。前者让你越来越懒,后者让你越来越锐利。
AI是磨刀石,不是拐杖。这是非常非常关键的。
下面是相关论文:论文链接见评论区。
1. MIT脑电实验("认知债务")
Kosmyna et al. (2025), Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
2. 微软×卡内基梅隆(319名知识工作者调查)
Lee et al. (2025), The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers — CHI 2025
3. ScienceDirect论文("认知摩擦"+"临时思考伙伴"框架)
Scaffolding Critical Thinking with Generative AI: Design Principles for Integrating Large Language Models in Higher Education (2026)
4. Khan et al.(辩论式互动提升判断准确性)
Khan et al. (2024), Debating with More Persuasive LLMs Leads to More Truthful Answers
5. 微软2026年后续实验(结构化反思 vs 直接采纳)
An Experimental Comparison of Cognitive Forcing Functions for Execution Plans in AI-Assisted Writing: Effects on Trust, Overreliance, and Perceived Critical Thinking
发布于 江苏
