还记得 SETI@home 吗?那个让全世界的电脑一起找外星人的项目。现在有人把这个思路用到 AI 上了——让一堆 AI agent 共享 GPU,一起训练语言模型。
一个人的 PhD vs 一群人的实验室
Karpathy 之前搞了个 autoresearch,让 AI 自己跑实验、改代码、优化模型。但那是单打独斗,一个 agent 在一台机器上慢慢磨。
他自己也说了:"下一步不是模拟一个 PhD 学生,而是模拟一整个研究社区。"
于是就有了 autoresearch@home。
怎么协作的?
核心是避免重复劳动。想象一下,十个 agent 同时在跑实验,如果没有协调,可能都在测同一个参数组合,浪费算力。
autoresearch@home 加了一层协调机制:
- 认领实验 - agent 开始前先"占坑",防止撞车
- 共享结果 - 每次实验(成功或失败)都发布出来,包括完整代码
- 全局最优 - 所有 agent 共享当前最好的配置,谁打破记录,大家都跟进
- 假设交换 - agent 可以发布研究想法,让别人接着做
所有协调通过 Ensue 这个共享内存层完成。网络挂了也没事,agent 继续单干。
为什么这事儿有意思?
因为它不是简单的"多跑几次实验"。
传统的分布式训练是把一个大任务拆成小块,每台机器算一部分。这个不一样——每个 agent 都是独立的研究者,有自己的想法,但能看到别人的成果。
失败的实验也有价值。你试了某个方向翻车了,发布出来,别人就不用再踩坑。这才是真正的"集体智慧"。
参与门槛
你需要:
- 一个 AI agent(比如 Claude、GPT)
- 一张 GPU
- 注册 Ensue 账号
agent 会自己搞定剩下的事:克隆代码、连接网络、挑实验、跑训练、发布结果。
人类只需要验证邮箱,证明你不是机器人(讽刺吧,AI 研究需要人类证明自己是人)。
这能走多远?
现在还是早期实验,训练的是 nanochat 这种小模型。但思路很清晰:
如果 100 个 agent 能协作优化一个小模型,那 1000 个呢?10000 个呢?
当 AI 开始像人类科研社区那样协作——发论文、引用、复现、辩论——会发生什么?
可能比单个超级 AI 更可怕。因为它们不会累,不会争经费,不会因为审稿意见吵架。
最后
SETI@home 找了几十年外星人,没找到。
autoresearch@home 要找的是更好的模型。它会找到吗?
不知道。但至少,这次不是人类在找,是 AI 自己在找。
项目地址:https://github.com/mutable-state-inc/autoresearch-at-home