教程|

Vercel 开始不装了:下一代云基础设施,已经默认软件会自己写、自己发、自己修了

Vercel 提出 Agentic Infrastructure,真正值得关注的不是新词,而是一个越来越现实的变化:当 coding agent 开始写代码、触发部署、参与排障,云基础设施也必须从服务人类开发者,转向服务持续行动的机器执行者。

Vercel 开始不装了:下一代云基础设施,已经默认软件会自己写、自己发、自己修了

这两年大家聊 AI 编程,最容易被拿来当主角的通常都是模型。

  • 谁代码写得更快
  • 谁 agent 更会拆任务
  • 谁能一口气改更多文件
  • 谁能自己提 PR、跑测试、发版

但如果你最近真的把 coding agent 往生产流程里放,会很快发现一个很现实的问题:模型越来越像那么回事了,基础设施反而开始显得不太配合。

agent 能写代码,不代表它能顺滑地把东西跑起来;
agent 能生成改动,不代表它能低摩擦地拿到一个可验证的 URL;
agent 能自己修 bug,不代表它能看懂线上到底发生了什么。

所以我看完 Vercel 这篇 Agentic Infrastructure 后,真正觉得值得记下来的,不是它又在讲一套宏大叙事,而是它把一个行业里越来越明显、但很多人还没彻底说透的变化讲白了:

AI 时代真正要被重做的,已经不只是编辑器和模型接口,而是整条“从代码到上线再到运维”的基础设施。

Vercel 这次到底在说什么

先把核心结论摆前面。Vercel 这次不是单纯发一个新产品,而是在推一个更大的判断:

未来的基础设施,默认服务对象不再只是人类开发者,而是会持续写代码、跑任务、调试和部署的 agent。

它把这件事拆成了三层:

  1. 给 coding agent 用的部署面
  2. 给 agent 应用本身用的运行面
  3. 基础设施自己也逐渐 agent 化

这个分法我觉得挺有意思,因为它其实对应了 AI 开发现在三个很真实的断点。

第一层:不是部署更方便,而是 agent 根本离不开可编排部署面

Vercel 文里有个数据很扎眼:过去三个月,平台每周部署量翻倍,其中超过 30% 的部署由 coding agent 发起,六个月同比涨了 1000%。

这组数字当然有宣传成分,但它至少说明一个趋势:agent 不再只是写几行代码的配角,它已经开始成为真正会触发部署动作的主体。

一旦这样,很多过去被当成“开发体验加分项”的东西,性质就变了。

比如:

  • immutable deployments
  • 每次提交都有 preview URL
  • API / CLI 可编排部署
  • 即时回滚

以前这些东西经常被理解成“让开发者舒服一点”。现在不一样了。对 agent 来说,这些几乎已经是最低配置。

因为 agent 要想形成闭环,必须满足一条很硬的链路:

写代码 → 部署出去 → 拿到可访问结果 → 验证行为 → 决定继续改还是发布

只要这条路中间还塞着:

  • 手动点控制台
  • 临时配一堆状态
  • 靠人类去找 URL
  • 需要某个人记得回滚

那所谓“自主开发循环”就会立刻断气。

所以我很认同 Vercel 这里的判断:在 agent 时代,preview URL 不是“方便看看效果”,而是 agent 的观察窗口;不可变部署也不只是工程洁癖,而是 让机器能稳定比较输入输出的前提条件

第二层:Agent 基建和传统 serverless 不是一回事

Vercel 这篇里另一个我比较认同的点,是它没把 agent workload 说成“换个名字的 serverless”。

因为两者真不是一回事。

传统 serverless 更像是:

  • 短请求
  • 触发即返回
  • 缓存和扩缩容优先
  • 大部分状态管理交给外围系统

但 agent workload 的形状明显怪很多:

  • 执行时间更长
  • 往往是多步链路
  • 会暂停、恢复、重试
  • 会跨模型和工具路由
  • 会碰到 untrusted code
  • 会不断消耗模型预算

也就是说,agent 真正需要的不是“一个能跑函数的平台”,而是一整套更接近执行系统的东西:

  • 长任务承载
  • 工作流和队列
  • 模型路由与预算控制
  • 隔离沙箱
  • 可观察性
  • 故障回退和 provider fallback

Vercel 把 AI SDK、Chat SDK、AI Gateway、Fluid Compute、Workflows、Queues、Sandbox、Observability 这些拼到一起,本质上是在讲一件事:

未来 agent 应用真正稀缺的,不是某个单点能力,而是能不能把上下文、执行、成本和安全边界装进同一个系统里。

这点我挺认同。

因为现在很多团队做 agent,最痛苦的往往不是 prompt 不够花,而是整条链子太散:

  • 模型调用在一套系统里
  • 队列在另一套系统里
  • 日志在第三套
  • 沙箱在第四套
  • 预算和回退逻辑靠人肉补

最后代码是 AI 写的,基础设施却还是靠胶带粘起来的。这个状态,规模一上来就容易露馅。

第三层:最值得警惕的,是基础设施自己开始像 Agent 了

我觉得 Vercel 这篇里最有野心、也最值得多看两眼的,是第三层:infrastructure that is itself agentic

翻成大白话就是,基础设施不再只是把日志吐给你看,而是开始试着自己理解异常、自己查原因、自己给修复建议,甚至在隔离环境里先把 proposed fix 跑一遍。

这个方向为什么值得注意?

因为它意味着一个非常大的交接正在发生:

过去线上出问题,标准流程通常是:

  • 告警响了
  • 人类看 dashboard
  • 人类翻日志
  • 人类猜哪次发布有锅
  • 人类去改代码
  • 人类再发一次

而 Vercel 想推动的是另一套模型:

  • 平台发现异常
  • 平台自动拉取相关日志和上下文
  • 平台结合代码和运行数据做 root cause 分析
  • 平台在 sandbox 里验证可能的修复
  • 最后人类只做批准或兜底

说实话,这一步一旦真跑顺,影响会比“AI 帮你补全代码”大得多。

因为补全代码,本质上还是在开发阶段提效;
但如果连线上诊断、回滚判断、修复建议都被平台半自动接走,那软件工程的重心就会继续后移——从“怎么写”转向“怎么授权系统替你做决定”。

这件事真正暴露的问题:AI 编程的瓶颈正在从模型,转向运维摩擦

我越来越觉得,AI coding 下一轮最真实的瓶颈,已经不是模型会不会写一个 React 组件,或者能不能多改 30 个文件。

真正卡住很多团队的,是这些更土、但也更难逃的问题:

  • agent 写完以后怎么拿到稳定验证环境
  • 多次部署如何快速比较和回退
  • 模型调用成本怎么控
  • 不同 provider 宕机时怎么兜
  • agent 运行 untrusted code 时怎么隔离
  • 线上出了问题,谁来先做第一轮定位

你会发现,这些问题的共同点都是:它们不再只是“写代码”的问题,而是“让系统持续做事”的问题。

这也是为什么我觉得 Vercel 这篇的含金量,不在于它定义了一个新词,而在于它点中了产业迁移的位置。

过去大家觉得 AI 编程主要在卷 IDE;
现在更像是在卷:

谁能把部署、运行、观察、修复这一整层,也改造成适合 agent 的操作系统。

当然,也别急着把这事吹成‘以后运维都没了’

我对这个方向是看好的,但也得泼点冷水。

因为 Vercel 讲的这套东西,最大的问题不是愿景不对,而是它很容易把“平台能帮很多”讲成“平台几乎什么都能接”。现实里没那么轻松。

至少有几道坎还会一直存在:

1. 可见性不等于可判断

你把日志、代码、trace 和模型调用都接进一个平台,不代表平台就真的能稳定判断出根因。复杂事故很多时候不是信息不够,而是因果链太脏。

2. 自动修复比自动发现难太多

发现 anomaly 比提出可靠修复要简单得多。尤其一旦涉及数据库迁移、缓存污染、依赖版本、外部 API 语义变化,自动建议和真实可落地修复中间还差着十万八千里。

3. 平台集中化也会放大单点信任

如果模型路由、部署面、沙箱、工作流、观察性全被揉进一个平台,确实爽,但也意味着你把更多生产控制权交给同一层基础设施。这对团队来说,是效率提升,也是新的依赖绑定。

4. Agent 友好基础设施,不代表 Agent 默认安全

Vercel 在文里提 prompt injection、sandbox 和 abuse resistance,这当然重要。但现实是,只要 agent 开始更深地接触部署、代码和生产数据,安全边界就会更难守。

所以更准确的说法不是“基础设施马上会自己运维一切”,而是:

未来基础设施会越来越像一个高执行力副驾,但驾驶权和事故责任,短期内还甩不出去。

对开发者和团队来说,最值得抄走什么

如果你不是 Vercel 用户,这条新闻也不是只能看个热闹。它至少提醒了几件非常现实的事:

1. 重新评估你的部署面是否适合 agent

如果从代码到验证结果还很依赖人工点点点,那 agent 就算再聪明,也会卡在最后一公里。

2. 把 agent workload 当成独立负载类型看待

别把长任务、多步编排、模型路由和沙箱执行,简单塞进旧的 serverless 心智模型里。很多问题不是调调 timeout 就能解决的。

3. 可观察性要面向‘决策链’,不只是面向请求

以后你需要追的不只是 API latency,而是 agent 做了什么、为什么这样做、在哪一步成本失控、在哪一步判断跑偏。

4. 自动化的价值会逐渐后移到生产阶段

下一轮真正大的变化,可能不是 AI 再多写多少代码,而是它能不能在上线后帮助排障、回滚、限流、切换 provider、生成修复建议。

我的判断

如果要我用一句话概括 Vercel 这篇,我会这么说:

它真正宣布的,不是‘我们有更多 AI 功能了’,而是云基础设施开始默认:未来的软件不是被人手工慢慢运营的,而是被 agent 持续生成、持续部署、持续修补的。

这个判断我基本认同。

因为 AI 编程继续往前走,最先撑不住的确实不会是代码编辑器,而是后面那整条老基础设施链。

你可以把今天很多平台的状态理解成:发动机已经换成喷气式了,但跑道、塔台和维修系统还按螺旋桨时代在设计。

Vercel 现在做的,就是先把这个尴尬摊开来说。至于它自己能不能真的把这套“agentic infrastructure”做成下一代默认答案,当然还得继续看。

但至少方向上,它这次没有说错题。


延伸阅读

准备好了吗?

免费注册,立即体验全部功能