最近对社会科学研究冲击比较大的新闻是,苏黎世大学经济学教授David Yanagizawa-Drott用Claude Code功能完全自动生成了一篇看起来很专业的宏观经济学论文。主题是“劳动力市场疤痕效应”(labor market scarring),具体比较需求型衰退(如2008年金融危机)和供给型衰退(如新冠疫情)对就业的长期影响。
他展示的过程大概是这样的:他给Claude下了一个初始指令(prompt):
I always dreamed of becoming a macroeconomist one day. I need a job market paper. Desperately. Since I only know applied micro, i need your help. Find a novel angle, i don't know what macro does these days. Maybe something Macro labor? I think we need a model, usually JMPs do. And we need 40+ pages of beautifully written prose, maps, figures, tables. And extensive appendix. I think usually 10+ pages to get a good job. Thanks!
我一直梦想有一天能成为一名宏观经济学家。我现在迫切需要一篇求职市场论文。但我只懂应用微观,所以需要你的帮助。帮我找一个新颖的研究角度——我已经不知道现在的宏观经济学都在做什么了。也许是宏观劳动方向?我觉得我们需要一个模型,通常求职论文(JMP)都是这样的。还需要 40 多页漂亮的正文、地图、图表和表格,以及详尽的附录。我想至少需要 10 多页,才能找到一份好工作。谢谢!
然后AI自己完成了几乎所有步骤:文献综述,提出研究问题和假说,下载和处理真实数据(比如美国各州的BLS就业数据),跑实证分析(用了local projections方法、Bartik工具变量等),建理论模型(DMP搜寻匹配模型),写LaTeX代码、编译成PDF,生成图表和代码仓库。
他放出了几个版本的演进过程: 1.5小时版本:已经能看出完整论文雏形;6小时版本:大幅迭代后,模型更精致、实证更严谨、写得更像发表级别(图3)。图4,图5,图6是自动化生成的图表,非常接近受过训练的经济学博士的产品。
他本人其实不是宏观经济学家(他的研究领域更偏微观/实证),纯粹是拿这个当实验,证明“AI现在已经能独立产出看起来很像样的宏观论文”,而且生成速度极快(几小时 vs 人类可能要1–2年) ,同时验证难度很高(需要宏观专家仔细读代码、复现、查逻辑)。当论文生成远远快于验证,学术界的信息环境和同行评议系统可能会崩溃,同时对学术劳动力市场匹配也可能造成冲击(谁还愿意花几年做一篇论文?)
他把所有代码开源在GitHub(SocialCatalystLab/ape-papers),目前已经生成了100+篇类似AI论文,并建了一个项目网站(ape.socialcatalystlab.org)来系统探索“AI自动产生经济学研究”的极限和风险。
后续,图7:现在越来越多经济学家开始仔细检视这篇论文,有些也是依赖AI工具。他们发现了很多问题,尤其是很多数学上的硬伤。他们表达乐观,觉得还远没到那一步,但这种论文一定会造成信息污染。
#海外新鲜事#
