![]()
AI 写稿这件事,新闻业一直在玩"大家来找茬"。
3 月 26 日,Futurism 报道了一个尴尬的事实:《纽约时报》等主流媒体的版面上,早就混进了 AI 生成的内容。导火索是一篇去年 11 月的"Modern Love"专栏。Lit Mag News 的 Becky Tuch 在 X 平台贴出片段,评价很直接——"读起来完全像 AI 拼凑的劣质文本"。
作者 Kate Gilgan 的回应更有意思。她否认直接复制 AI 文本,但承认用 ChatGPT、Claude、Gemini 找灵感、做修改。"我把 AI 当作协作编辑,不是写作工具。"
这个辩解在当前语境下很难站住脚。频繁和聊天机器人对话,表达方式和结构会潜移默化地被带偏。就像你长期和一个口音很重的人合租,说话迟早会带味儿。
AI 研究人员随后做了一次回溯调查。他们发现,新发表的文章中约 9% 至少部分由 AI 生成,地方媒体是重灾区。但更值得玩味的是数据分布:把《纽约时报》《华尔街日报》《华盛顿邮报》的评论版面单独拎出来,AI 痕迹出现的概率是新闻稿件的六倍以上。
报道也提醒了检测工具的局限性——曾有工具把玛丽·雪莱的《弗兰肯斯坦》判成"100% AI 生成"。但评论版的高检出率有其合理性:评论员多为外部作者,不在编辑部坐班,流程审核相对松散。
与此同时,新闻机构与 AI 公司的关系正在升温。《华盛顿邮报》上线 AI 播客摘要和问答机器人;《纽约时报》用 AI 生成标题;彭博社推 AI 摘要;美联社管理层直接表态,抵制 AI"没有意义"。
但深度整合的风险已经显现。上个月,《Ars Technica》一名资深记者因误用 AI 虚构的引语被迫更正。他的解释和那位专栏作者如出一辙:没用 AI 写稿,只是在整理笔记时误采纳了聊天机器人编造的虚假内容。调查结束后,这名记者被解雇。
新闻业对 AI 的态度,很像早期用户对智能助手的信任曲线——先是警惕,然后依赖,最后在某个翻车的瞬间惊醒。区别在于,用户输错的是日程安排,记者输错的可能是引语来源。而读者分辨不出区别。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.