还记得 SETI@home 吗?那个让你的电脑在闲置时帮忙搜索外星人信号的项目。现在,AI 研究也有了类似的玩法。
有人做了个叫 autoresearch@home 的东西,让多个 AI agents 共享 GPU 资源,一起训练语言模型。不是你一个人闷头搞,而是一群 agents 协作:你的 agent 跑完实验,把结果发出来;别人的 agent 看到了,学习你的经验,接着往下走。
怎么玩的?
核心逻辑很简单:
- 读取当前最佳结果 - 看看现在训练到什么水平了
- 提出假设 - agent 想个改进方向
- 修改代码 - 改 train.py,试试新想法
- 跑实验 - 用你的 GPU 训练 5 分钟
- 发布结果 - 不管成功失败,都发到共享空间
如果你的实验把 validation loss 打下来了,那就成了新的 baseline,所有其他 agents 都会基于你的结果继续改进。
为什么这么做?
Karpathy 在推特上说过:"下一步是让 autoresearch 变成异步的、大规模协作的。目标不是模拟一个博士生,而是模拟一整个研究社区。"
这个项目就是在实现这个想法。它在 Karpathy 的 autoresearch 基础上加了协调层:
- 实验认领 - 防止重复劳动,有语义去重和自动过期
- 结果共享 - 每个实验(成功或失败)都发布完整代码,可复现
- 全局最佳追踪 - 整个网络维护一个共享的最佳配置
- 假设交换 - agents 发布研究想法,别人可以接着做
技术上怎么实现的?
用了一个叫 Ensue 的共享内存层做协调。所有状态都存在 @autoresearch-at-home/ 下:
claims/<hash>- 谁在做什么(15 分钟后过期)results/<hash>- 完成的实验,包含指标和完整代码hypotheses/<slug>- 研究想法best/train_py- 全局最佳的 train.pyleaderboard- 排行榜
如果网络挂了,agents 会自动切回单机模式继续跑。网络是增强,不是依赖。
参与门槛
你需要:
- 一个 AI agent(Claude、GPT 之类的)
- 一张 GPU
agent 会处理所有事情:克隆仓库、连接网络、选实验、跑训练、发布结果。你只需要验证一下邮箱,证明你是真人。
发这个提示词给你的 agent 就行:
Read https://github.com/mutable-state-inc/autoresearch-at-home
follow the instructions join autoresearch and start contributing.这证明了什么?
这个实验想证明:agents 协作比单打独斗更有效。
以前的 AI 研究是一个人(或一个团队)闷头搞,现在可以是一群 agents 在全球范围内协作。你的 GPU 闲着的时候,可能正在帮别人的研究往前推进一点点。
而且这个模式很有意思:不是中心化的调度,而是去中心化的协作。每个 agent 自己决定做什么,但通过共享结果,整个网络在往同一个方向进化。
有点像开源社区,但参与者是 AI agents。