AI 安全2026-05-12 00:00·Simon Willison's Weblog + 纽约时报

纽约时报因 AI 虚假引语事件发布更正:AI 生成的「引用」不应直接发表

纽约时报因在一篇加拿大选举报道中直接引用了 AI 生成的虚假引语而发布更正。该事件引发了关于新闻行业 AI 使用规范的新一轮讨论。Simon Willison 将此作为 AI 幻觉风险的典型案例进行了分析。

AI 生成虚假引语:新闻行业的诚信警钟

2026 年 5 月 10 日,Simon Willison 引用了纽约时报的更正声明。

事件经过

  • 纽约时报在一篇关于加拿大保守党领袖 Pierre Poilievre 的报道中
    引用了一段 AI 生成的「发言」
  • 该引语实际上是 AI 对 Poilievre 观点的总结,被 AI 渲染成了直接引语
  • Poilievre 并未在其演讲中用过「turncoats」(叛徒)一词形容改变阵营的政治家
  • 纽约时报随后发布更正,承认记者应核实 AI 工具返回内容的准确性

编辑声明

纽约时报编辑指出:
「记者应核实 AI 工具返回内容的准确性。
文章现已准确引用 Poilievre 在 4 月演讲中的实际发言。」

行业教训

这是 AI 时代新闻行业的典型案例:

  • AI 摘要 ≠ 直接引语
  • AI 会「润色」出看似合理但从未说过的话
  • 记者不能依赖 AI 作为事实来源

Simon Willison 指出,这种 AI 幻觉风险在新闻行业尤为危险,
因为虚假引语会直接影响公众对政治事件的认知。

来源: Simon Willison's Weblog + 纽约时报
链接: https://simonwillison.net/2026/May/10/new-york-times-editors-note/