资讯|

AI 网关开始替团队背锅了:Vercel 把‘别拿我 Prompt 去训练’做成了一个总开关

Vercel 给 AI Gateway 加上团队级 Zero Data Retention 和禁止 Prompt 训练开关。真正值得关注的不是多了几个合规参数,而是 AI 团队终于能把“别拿我的数据乱用”从应用层细节,变成基础设施默认规则。

AI 网关开始替团队背锅了:Vercel 把‘别拿我 Prompt 去训练’做成了一个总开关

过去一年,很多团队接大模型最烦的事,已经不是"怎么调用",而是"这段数据到底会不会被留下来"。

尤其你一旦开始同时接多个模型供应商,事情会迅速变得很不优雅:

  • 这家默认会不会保留请求数据?
  • 那家能不能禁用训练?
  • 某个开发者是不是忘了在某条敏感链路上手动加参数?
  • 今天走 OpenAI,明天切 Anthropic,策略会不会直接漏掉?

这种感觉很像什么?很像公司门口装了三把锁,但每个员工都得自己记得锁哪一把。理论上很安全,实际上迟早有人忘。

Vercel 新发的这篇 Zero Data Retention on AI Gateway 干的,就是把这件事往基础设施层按下去:不再靠每个接口、每次请求、每个开发者自己记得配置,而是让 AI Gateway 直接替团队做路由筛选和策略兜底。

这次更新到底更新了什么

先讲大白话版本。Vercel AI Gateway 这次新增的重点,不是又接了几个模型,而是把合规控制做成了团队级开关。

它主要给了三层能力:

  1. 团队级 Zero Data Retention(ZDR)
  2. 请求级 ZDR
  3. Disallow Prompt Training(禁止用你的 Prompt 训练模型)

重点在第一条。

以前很多团队做法是:谁写到敏感场景,谁自己在代码里配数据保留策略。听起来灵活,实际上非常脆。只要有一条链路漏配,或者有人切 provider 时没把策略同步过去,之前那些"我们很重视数据安全"的口号就容易当场破功。

Vercel 现在的思路是,你直接在网关层开团队级 ZDR,后续请求只会被路由到符合零数据保留要求的 provider。 也就是说,这不再是一条业务逻辑,而是一条基础设施规则。

这个转变非常关键。因为凡是要靠人记住的安全策略,本质上都不算稳定策略。

真正有价值的,不是‘支持 ZDR’,而是‘默认替你筛模型’

说实话,现在市面上说自己支持隐私、支持企业合规、支持不训练数据的平台不少。但很多时候它们只是把控制项丢给你,剩下的自己想办法。

Vercel 这次更像是在做一件很工程化、也很现实的事:

你不用再挨个研究供应商条款,然后在每个请求里祈祷配置没漏;网关会先替你过滤掉不符合要求的路由。

这件事听上去不炸裂,但对真正在生产里跑多模型的团队,含金量其实挺高。

因为很多公司现在并不是只接一个模型:

  • 客服机器人可能走便宜模型
  • 内部知识库问答可能走效果更稳的模型
  • 代码分析、合同摘要、商业文档处理,又是另一套组合

模型一多,策略就容易碎。策略一碎,最先出事的不是效果,而是合规。

Vercel 把它收口到 Gateway,实际上是在把"数据保留策略"从应用代码里抽出来,变成平台级默认值。这个方向我挺认同。

对团队来说,这比多一个 SDK 参数重要多了

文里还提到两种细粒度控制:

  • 对特定请求启用 zeroDataRetention
  • 对特定请求启用 disallowPromptTraining

这当然有用,尤其适合某些链路特别敏感、但全局没必要一刀切的团队。

但如果你问我,真正值得关注的不是那几个参数,而是背后的组织含义:

安全策略终于不再依赖“工程师今天有没有记得写这一行”。

这件事很重要,是因为 AI 系统出问题,很多时候不是模型瞎说八道,而是工程流程里某个看似很小的默认值没人盯住。

你可以把团队级 ZDR 理解成一种"别靠自觉,直接上门禁"。

这类设计的价值,不在于让高手更强,而在于让普通协作也不容易翻车。

你可能还想看:如果你对 AI 时代的基础设施变化感兴趣,可以顺手读读这篇 Vercel 开始不装了:下一代云基础设施,已经默认软件会自己写、自己发、自己修了。两篇放一起看,会更容易看懂为什么 AI 平台现在越来越想接管“默认规则”。

还有一个细节,很多人会低估

Vercel 说,每次响应里还会返回一段 metadata,告诉你这次路由时考虑了哪些 provider、又过滤掉了哪些 provider。

这玩意儿看起来像是顺手加的,但我觉得其实很关键。

因为合规这件事,最怕的不是没有规则,而是你以为规则生效了,结果根本没人能证明它真的生效过。

有了这层 routing metadata,团队至少能知道:

  • 这次请求有没有因为 ZDR 被限制路由
  • 哪些 provider 被排除了
  • 最终实际走到了哪条链路

这对审计、排查和内部沟通都很重要。否则很多团队最后会陷入一种很经典的尴尬:安全同学说要严格,业务同学说别拖速度,工程同学说我好像配了,结果谁都说不清到底发生了什么。

当然,别把它神化成‘一键隐私无敌’

该泼的冷水还是得泼。

Vercel 这次更新很实用,但它解决的是网关层路由和供应商策略一致性,不是所有隐私问题的总答案。至少还有几件事你不能装作不存在:

1. 你的应用自己怎么存,还是你的锅

就算模型侧是 ZDR,如果你把用户输入、日志、trace、报错堆栈全量打进自家系统,那风险并没有凭空消失。

2. RAG、缓存和监控链路也可能泄露上下文

很多团队模型请求是安全的,但向量库、缓存层、第三方监控和工单系统反而把敏感内容留得明明白白。

3. 并不是每个 provider、每个模型都能满足同一等级的策略

一旦你打开严格过滤,选择空间本来就会变小。某些时候,这会直接影响成本、延迟和可用性。

所以这次更新更准确的意义,不是"隐私问题被终结了",而是:

AI 团队终于可以少写一点到处散落的合规胶水代码了。

这就已经很值钱。

为什么这类能力会越来越重要

我越来越觉得,AI 工程接下来的竞争,不会只是谁模型接得多、调用单价压得低,而是谁能把"默认正确"做进基础设施。

因为今天很多团队的问题不是不会做,而是:

  • 规则太多,没人记得全
  • 供应商太多,策略难同步
  • 业务迭代太快,安全要求总是落后一拍

这时候,最靠谱的做法不是再发一份内部规范文档,而是把规范变成开关,把开关放在平台层。

Vercel 这次干的,就是这件事。

如果你正在做企业级 AI 产品、内部 Copilot、代码助手、文档分析、法务摘要或者任何会碰到敏感信息的工作流,这个方向都值得盯紧。因为它代表了一种更成熟的信号:

AI 平台开始不再只卖模型入口,而是开始卖“默认不会出事的系统行为”。

这比再多一个模型 Logo,实际得多。


延伸阅读

准备好了吗?

免费注册,立即体验全部功能