麻省理工科技评论 26-03-08 18:37
微博认证:《麻省理工科技评论》杂志官方微博

【Karpathy开源“AI研究员”,630行代码让智能体通宵炼模型,一晚可跑100次实验】

如果你有一块 NVIDIA #GPU# ,睡前启动一个脚本,第二天早上醒来就能收获一百次 LLM 训练实验的结果,其中一部分还确实比你手动调参调得更好,是不是听起来有些难以置信?

但这就是 Andrej Karpathy 今天凌晨开源的新项目 autoresearch 所做的事。项目上线不到几个小时,他在 X(原 Twitter)上的发布帖浏览量突破百万,GitHub 仓库迅速收获超过 2,500 颗星。整个仓库的核心代码只有约 630 行 Python。

autoresearch 做的事情,一句话就能说清:把一个简化过的#大语言模型# 训练环境交给 AI 智能体(AI Agent),让它在你睡觉的时候自主跑实验。智能体修改代码,启动训练,五分钟后检查结果,如果验证损失降低了就保留改动,没降低就回退,然后继续下一轮。你早上醒来,面前是一串实验日志,和一个可能变好了的模型。

过去几年里,Karpathy 开源了一系列以极简主义著称的项目:2020 年的 micrograd 和 minGPT,2023 年的 nanoGPT,2024 年用纯 C 和 CUDA 写的 llm.c,2025 年覆盖 LLM 全流程的 nanochat,以及 2026 年 2 月那个仅用 243 行纯 Python、零外部依赖实现 GPT 训练和推理的 microgpt。每一次迭代都在做同一件事,剥除抽象层,把复杂系统压缩到人类可以在一杯咖啡时间里读完的代码量。

autoresearch 延续了这条线索,只是这一次,它不再是给人看的教学工具,而是给 AI 用的实验平台。

戳链接查看详情:http://t.cn/AXVVWfW8