IT之家 3 月 27 日消息,当地时间 3 月 26 日,据外媒 Futurism 报道,越来越多迹象表明,《纽约时报》等主流媒体已经在不知不觉中刊登过 AI 生成内容。
本周,这一话题迅速发酵,起因是一篇发表于去年 11 月的《纽约时报》“Modern Love(现代爱情)”专栏。Lit Mag News 的 Becky Tuch 在 X 平台贴出文章片段并直言“读起来完全像 AI 拼凑的劣质文本”,由此引发广泛讨论。
《大西洋月刊》随后披露的调查显示,这一质疑并非毫无根据。专栏作者 Kate Gilgan 表示,自己没有直接复制 AI 生成的文本,但承认在写作过程中借助了 ChatGPT、Claude 和 Gemini 等工具,用于获取灵感、修改和润色。“我把 AI 当作协作编辑,而不是写作工具。”
但在当前阶段,这种区分很难成立。频繁依赖聊天机器人,很容易在不知不觉中受到其表达方式和结构的影响。
问题的规模也不容忽视。围绕该专栏的争议,促使多名 AI 研究人员回溯调查 AI 内容在美国新闻中的渗透情况。
研究结果显示,新发表的文章中约有 9% 至少部分由 AI 生成,其中主要集中在地方媒体。

图源:Pexels
当研究对象转向《纽约时报》《华尔街日报》《华盛顿邮报》等权威媒体的评论版面时,情况更为突出 —— 评论文章中出现 AI 生成内容的概率,是新闻稿件的六倍以上。
报道提醒,这一结论“需要谨慎看待”。AI 检测工具长期存在误判问题,例如曾有工具将玛丽 · 雪莱的《弗兰肯斯坦》误判为“100% AI 生成”,引发大量嘲讽。
IT之家获悉,被识别出问题的主要是评论文章,而非新闻报道,主因在于评论作者往往并非职业记者,且不在媒体内部任职,写作流程缺乏严格审核。因此,AI 内容更容易出现在评论版面,一定程度上解释了检测结果的合理性。
与此同时,新闻机构与 AI 公司的关系正变得愈发紧密。《华盛顿邮报》推出 AI 播客自动生成新闻摘要,并上线问答机器人;《纽约时报》使用 AI 生成标题;彭博社提供 AI 摘要功能;美联社管理层甚至明确表示,对 AI 的抵制“没有意义”。
但让 AI 深入新闻生产流程,风险同样明显。上个月,《Ars Technica》一名资深记者因误用 AI 虚构的引语被迫更正报道。该记者解释称,自己没有用 AI 写稿,但在用聊天机器人整理笔记时误采纳了 AI 生成的虚假内容。调查结束后,该记者最终难逃解雇的命运。

