Anthropic 放出 Claude Mythos:最吓人的不是会找漏洞,而是普通人也能用了
如果你最近还把“AI 安全能力变强”理解成 Copilot 更会补全代码,那这次可能得把预期整个抬一档。
Anthropic 这两天公开了一波很重的信号:他们的新模型 Claude Mythos Preview,已经不是“能帮安全研究员省点时间”这个级别,而是开始逼近另一个更危险的阶段——AI 正在把高级漏洞挖掘和利用的门槛往下砸。
更狠的是,Anthropic 自己在技术说明里直接承认了一件事:在一些测试里,没有正式安全背景的工程师,把任务扔给 Mythos,第二天起来就能看到能跑的漏洞利用结果。
这话的冲击力,比一长串 benchmark 分数大多了。
真正让人头皮发麻的,不是“AI 更强了”
而是它强在了一个本来不该这么快规模化的地方。
按照 Anthropic 披露的信息,Mythos 已经能在:
- 主流操作系统里找零日漏洞
- 主流浏览器里找漏洞并尝试利用
- Linux 内核、FFmpeg、OpenBSD 这类老牌关键软件里挖出高危问题
- 在部分场景下,把找漏洞和构造利用链这两步几乎串成半自动流程
这不是“写个脚本”“修个报错”那种编程能力提升。
这更像是:模型开始具备了接近安全研究员工作流的完整性。
以前很多高危漏洞之所以没有被大规模滥用,不是因为它们不存在,而是因为:
- 不好找
- 找到了也不一定会利用
- 真能稳定打穿的人很少
现在的问题是,AI 正在同时压这三件事的成本。
最危险的一点:它不是只帮高手
安全圈最怕的从来不是“顶级研究员更强了”。
顶级研究员本来就很强。
真正麻烦的是,原本需要多年积累的能力,开始被打包成可调用的生产力。
Anthropic 在说明里提到,Mythos 不只是能发现漏洞,还能在一些案例里自动构造复杂利用,甚至把多个漏洞拼起来形成完整攻击链。它还强调,这些能力并不是专门为了攻击训练出来的,而是代码能力、推理能力和 agent 化执行能力叠加后的自然结果。
这就很现实,也很不好笑。
因为这意味着,未来真正危险的未必是某个“邪恶模型”突然出现,而是:
- 模型写代码越来越强
- 模型调试越来越稳
- 模型会自己跑实验、自己验证、自己迭代
当这三件事凑到一起,攻击能力就会像副作用一样冒出来。
说白了,不是有人故意把核按钮交出来,而是大家在拼命做更强的通用模型时,顺手把一套越来越像攻击自动化的能力也做出来了。
Anthropic 为什么要拉一群大厂搞 Project Glasswing
这也是这次另一个关键信号。
Anthropic 没有直接把这套能力当成普通模型升级来宣传,而是同步推出了 Project Glasswing,把 AWS、Microsoft、Google、Apple、Cisco、CrowdStrike、NVIDIA、Palo Alto Networks 等一堆机构拉进来,核心目标就一个:
趁这种能力还没彻底扩散,先拿去补最重要的系统。
这个动作说明两件事:
1. 他们自己也知道这不是普通发布
如果这只是“代码能力更好一些”,没必要搞这么大阵仗,更没必要上来就是关键基础设施、安全合作、开源安全资助这些组合拳。
2. 安全行业的旧节奏已经有点跟不上了
以前很多企业做安全,还是老套路:
- 上线前做几轮审计
- 定期扫漏洞
- 等研究员或社区报问题
- 出补丁
但如果未来漏洞发现和利用的速度都被 AI 拉高,那整个行业就会变成另一种节奏:
还没等你排期修复,对面已经把 PoC 跑明白了。
这也是为什么 Anthropic 在公开材料里反复强调,要把 AI 先用于防守、用于修补、用于加快关键软件的安全审查。不是他们突然慈善心爆发,而是现在不这么做,后面可能真的顶不住。
对普通开发者来说,这事最现实的变化是什么?
很多人看到这种新闻,第一反应是:
“哦,那是安全公司和大厂要操心的事。”
其实不是。
如果你做的是:
- SaaS
- 插件系统
- 浏览器扩展
- 带上传、解析、转码、执行链路的产品
- 内部 Agent / 自动化平台
那你已经在这波影响范围里了。
因为 AI 把攻击效率抬上去之后,最先被教育的往往不是最顶级的大厂,而是那些:
- 代码量不小
- 业务跑得快
- 安全预算一般
- 默认觉得“我们这小产品没人盯”
的团队。
这类团队过去能活,很大程度上靠的是攻击者时间也很贵。
现在这个前提正在松。
接下来真正该调整的,不是情绪,是流程
这波消息最值得记住的,不是“AI 太可怕了”,而是一个更朴素的结论:
以后安全能力会越来越像算力一样,被工具化、被批量化、被前置到日常开发流程里。
你可以继续把安全当成上线前的最后一关,但那样会越来越像拿雨伞挡洪水。
更实际的做法会是:
- 对关键模块做持续 AI 辅助审计,而不是一次性审计
- 对解析器、鉴权、文件处理、沙箱边界这些高风险位置提高 review 权重
- 把 exploitability 当成评估项,而不是只看“有没有 bug”
- 对 agent 工具链、浏览器自动化、代码执行环境做更严格的隔离
- 默认接受一个现实:以后你的对手可能不是一个人,而是一整套会自己读代码、自己试错、自己复现的模型工作流
这才是这件事最扎心的地方。
大家以前总爱说“AI 会替代程序员吗”。
现在看,更值得问的问题可能是:
当 AI 开始替代一部分漏洞研究、利用验证和攻击准备工作时,你的系统到底有没有准备好面对一个不会累、不会烦、试错成本极低的对手?
这个问题,真不是危言耸听了。
最后一句
Claude Mythos 真正让人不安的,不是它会找漏洞。
会找漏洞的高手一直都有。
真正让人不安的是,那种原本昂贵、稀缺、需要多年训练的能力,正在被压缩成越来越可调用的默认能力。
这意味着未来的软件安全竞争,拼的可能不再只是“谁写得更快”,而是“谁能更快地发现自己会怎么死”。
这个时代的开发者,可能要尽快学会后一件事。