【从选题到论文一键生成:最新“论文虾”把Karpathy的autoresearch往前推了十步】
一周前,当 Andrej Karpathy 在 X 平台上发布他的新项目 autoresearch 时,整个 #AI社区# 被迅速吸引。因为这个项目只用了大约 630 行 Python 代码,就实现了让 AI 自主开展研究的机制。
截止目前,上线不到两周,项目的星标数已超过 4 万。有人在自家 H100 GPU 上运行了 83 次实验,保留了 15 次有效改进,验证损失从接近 1,000 稳步下降到 0.975 附近。
autoresearch 的核心在于给 #AI智能体# 提供一个真实的、简化的 LLM 训练环境,让它彻夜迭代。仓库主要由三个文件构成:prepare.py 固定负责数据准备和 BPE 分词器训练;train.py 是可编辑的核心脚本,包含 GPT 模型、优化器和训练循环;program.md 则作为人类编写的指令手册,指导 AI 的行为。
每次实验严格限定 5 分钟墙钟时间,评估指标用 val_bpb,确保不同改动间公平比较。智能体修改代码、运行训练、检查结果、决定保留或回滚,整个过程在 git 分支上记录,形成完整的演化历史。这延续了 Karpathy 一贯的极简风格,从 micrograd 到 nanoGPT,再到 nanochat,他总是在把复杂系统压缩到最小可运行规模,只是 autoresearch 这一次把主角换成了 AI。
戳链接查看详情:http://t.cn/AXfbmt8G
