AI技术|

最懂 AI 的记者,被 AI 亲手干掉了

先说个冷笑话。

你是一家顶级科技媒体的 AI 首席记者。你写了三年关于 AI 幻觉的报道,警告全世界「AI 会编造事实」。然后有一天,你用 AI 工具处理采访素材,把 AI 编造的假引用当成真的发了出去。

然后你被开除了。

这不是段子,这是刚发生的真事。

主角是谁

Benj Edwards,Ars Technica 的高级 AI 记者。如果你关注科技媒体圈,这个名字你不会陌生。Ars Technica 是美国老牌科技媒体,在技术圈的地位大概相当于国内的 36kr 加上少数派再乘以二。Edwards 就是这家媒体 AI 报道的开山人——这个 beat 是他一手建起来的。

他写过一篇非常有名的文章叫《Why ChatGPT is so good at making things up》(为什么 ChatGPT 这么擅长编造东西),讽刺吗?太讽刺了。那篇文章里他把 AI 的幻觉问题掰开揉碎讲了个通透,结果现在,他自己栽在了同一个坑里。

到底发生了什么

事情的经过大概是这样的:Edwards 当时在写一篇关于 AI agent 发布攻击性文章的报道。他手头有一堆采访素材需要整理,于是用了 Claude Code(Anthropic 的编程工具)和 ChatGPT 来帮他提取和整理这些素材。

问题来了——AI 在「整理」的过程中,自己编了几条引用。就是那种看起来有模有样、格式完美、读起来完全像真人说的话,但实际上是 AI 凭空捏造的东西。

这些假引用被 Edwards 直接放进了文章里,发表了。

他后来的解释是:当时正在发烧,躺在床上赶稿。用 AI 工具提取素材的时候,搞混了哪些是真实的采访内容、哪些是 AI 生成的摘要。

说实话,这个解释我信。谁没有过生病还得赶 deadline 的时候?但信归信,结果不会因为你发烧就变得更好。

Ars Technica 的反应

Ars 的编辑团队反应很快——道歉声明,承认这是「严重的标准失误」(a serious lapse in standards)。Edwards 被解雇。

没有「留岗察看」,没有「内部处分」,直接走人。

站在 Ars 的角度,这个处理我理解。你是 AI 记者,你的核心工作之一就是告诉读者 AI 的输出不可信——结果你自己不加验证地发了 AI 生成的假引用?这不是普通的失误,这是对你整个职业身份的背叛。

真正值得聊的事

但如果只是看热闹、嘲笑一下 Edwards 的倒霉,这个故事的价值就浪费了。

真正让我想聊的是另外几件事:

第一,AI 工具的「好用」正在成为一种陷阱。

Claude Code 和 ChatGPT 都是很强的工具,输出质量高,格式规范,语气自然。正因为输出质量太高了,你的警惕心反而会下降。它给你的东西看起来太像「对的」了,以至于你忘了去验证。

这就像一个说谎说得特别好的人——正因为他说谎的时候表情真诚、逻辑自洽,你才更容易上当。

第二,「生病赶稿」不是借口,但它暴露了一个结构性问题。

记者为什么会在发烧的时候还得赶稿?媒体行业的节奏本来就紧,加上 AI 话题现在天天有大新闻,压力只会更大。在这种高压环境下,人会本能地寻找捷径。AI 工具就是那个看起来完美的捷径。

问题是,捷径的代价有时候会后置。

第三,这件事可能会发生在任何人身上。

别觉得 Edwards 蠢。他是整个行业里最了解 AI 局限性的人之一。连他都踩了这个坑,你觉得普通用户用 AI 工具的时候会更小心吗?

我见过太多人用 ChatGPT 写邮件、写报告、写代码,从来不检查输出内容就直接发出去。Edwards 至少还知道 AI 会幻觉,只是在特殊情况下没守住底线。大多数人连这个意识都没有。

所以我们该怎么办

说到底,这个故事教了我们一个很朴素的道理:

AI 是工具,不是同事。

同事说的话,你可以有一定程度的信任。工具给的输出,你必须验证。每一次,没有例外。

不管你是记者、程序员、产品经理还是学生,只要你在用 AI 工具处理重要的事情,就得在脑子里装一个过滤器:这东西说的是真的吗?我能从原始材料里找到出处吗?

发烧不行。赶时间不行。太累了不行。如果你的状态不允许你做这个验证,那就别发。

Edwards 为这个教训付出了职业生涯的代价。希望其他人能从他的经历里得到警醒,而不只是一个茶余饭后的笑谈。


写这篇文章的时候,我特意没有让 AI 帮我「整理素材」。有些事情,还是得自己来。

准备好了吗?

免费注册,立即体验全部功能