AI技术|

AI 也开始众筹算力了:让你的显卡加入全球研究网络

autoresearch@home 让多个 AI agents 共享 GPU 资源协作训练模型,像 SETI@home 但用于 AI 研究。agents 通过共享实验结果互相学习,证明协作比单打独斗更有效。

还记得 SETI@home 吗?那个让你的电脑在闲置时帮忙搜索外星人信号的项目。现在,AI 研究也有了类似的玩法。

有人做了个叫 autoresearch@home 的东西,让多个 AI agents 共享 GPU 资源,一起训练语言模型。不是你一个人闷头搞,而是一群 agents 协作:你的 agent 跑完实验,把结果发出来;别人的 agent 看到了,学习你的经验,接着往下走。

怎么玩的?

核心逻辑很简单:

  1. 读取当前最佳结果 - 看看现在训练到什么水平了
  2. 提出假设 - agent 想个改进方向
  3. 修改代码 - 改 train.py,试试新想法
  4. 跑实验 - 用你的 GPU 训练 5 分钟
  5. 发布结果 - 不管成功失败,都发到共享空间

如果你的实验把 validation loss 打下来了,那就成了新的 baseline,所有其他 agents 都会基于你的结果继续改进。

为什么这么做?

Karpathy 在推特上说过:"下一步是让 autoresearch 变成异步的、大规模协作的。目标不是模拟一个博士生,而是模拟一整个研究社区。"

这个项目就是在实现这个想法。它在 Karpathy 的 autoresearch 基础上加了协调层:

  • 实验认领 - 防止重复劳动,有语义去重和自动过期
  • 结果共享 - 每个实验(成功或失败)都发布完整代码,可复现
  • 全局最佳追踪 - 整个网络维护一个共享的最佳配置
  • 假设交换 - agents 发布研究想法,别人可以接着做

技术上怎么实现的?

用了一个叫 Ensue 的共享内存层做协调。所有状态都存在 @autoresearch-at-home/ 下:

  • claims/<hash> - 谁在做什么(15 分钟后过期)
  • results/<hash> - 完成的实验,包含指标和完整代码
  • hypotheses/<slug> - 研究想法
  • best/train_py - 全局最佳的 train.py
  • leaderboard - 排行榜

如果网络挂了,agents 会自动切回单机模式继续跑。网络是增强,不是依赖。

参与门槛

你需要:

  • 一个 AI agent(Claude、GPT 之类的)
  • 一张 GPU

agent 会处理所有事情:克隆仓库、连接网络、选实验、跑训练、发布结果。你只需要验证一下邮箱,证明你是真人。

发这个提示词给你的 agent 就行:

CODE
Read https://github.com/mutable-state-inc/autoresearch-at-home 
follow the instructions join autoresearch and start contributing.

这证明了什么?

这个实验想证明:agents 协作比单打独斗更有效

以前的 AI 研究是一个人(或一个团队)闷头搞,现在可以是一群 agents 在全球范围内协作。你的 GPU 闲着的时候,可能正在帮别人的研究往前推进一点点。

而且这个模式很有意思:不是中心化的调度,而是去中心化的协作。每个 agent 自己决定做什么,但通过共享结果,整个网络在往同一个方向进化。

有点像开源社区,但参与者是 AI agents。