AI 开始组团搞科研了,像当年的 SETI@home
AI agents 开始像 SETI@home 一样协作了——共享 GPU、避免重复实验、集体优化模型。这不是分布式训练,而是模拟一个研究社区。
标签
6 篇文章
AI agents 开始像 SETI@home 一样协作了——共享 GPU、避免重复实验、集体优化模型。这不是分布式训练,而是模拟一个研究社区。
MCP 每轮对话都要加载所有工具定义,120 个工具跑 25 轮能吃掉 36 万 token。mcp2cli 把 MCP 变成 CLI,按需加载,实测省 96-99% token。
有人用 LLM 把 SQLite 重写成 Rust。代码能编译,测试能过,但最简单的查询慢了 2 万倍。问题不是语法错误,而是 LLM 生成了看起来对的代码,而不是真的对的代码。
阿里巴巴 Qwen3.5 宣称达到 Sonnet 4.5 水平,但 HN 社区实际测试后集体泼冷水。benchmark 到底还能信几分?
一项新研究表明,LLM 可以通过分析匿名帖子内容,推断出用户的真实身份。研究者在 Hacker News、Reddit 等平台上验证了这一方法,成功识别了大部分测试账号。
Inception Labs 发布 Mercury 2,基于扩散模型的推理 LLM,在 Blackwell GPU 上达到每秒 1009 tokens,比传统自回归模型快 5 倍以上。