![]()
去年11月,《纽约时报》一篇"Modern Love"情感专栏在X平台被编辑Becky Tuch贴出片段,配文只有一句:"这读起来完全是AI垃圾。"当时没人想到,这条推文会扯出一份让美国新闻业坐立难安的预印本研究。
作者Kate Gilgan后来向《大西洋月刊》承认,她确实用了ChatGPT、Claude和Gemini找灵感、改语法,但坚称"AI是协作编辑,不是内容生成器"。这话在2024年的AI语境里,听着像在说"我只借了火,没抽烟"——你猜肺会不会信?
研究者用Pangram Labs的检测工具回溯扫描,发现一个新数据:美国报纸新发表文章中,9%存在部分或全部AI生成痕迹。地方小报是重灾区,但真正扎眼的是"记录性报纸"——《纽约时报》《华尔街日报》《华盛顿邮报》——它们的观点文章(Opinion)被检出AI痕迹的概率,是新闻room(新闻编辑部)产出的6倍以上。
检测工具靠不靠谱?玛丽·雪莱的棺材板在动
AI检测器的名声向来不好。一张截图最近在社交媒体疯传:某免费工具把《弗兰肯斯坦》的经典段落标成"100% AI生成"。误伤案例太多,以至于"被AI检测器指控"本身成了一种网络梗。
Pangram Labs算是行业里口碑较好的。头对头测试中,它的假阳性率低于多数竞品。但研究者自己也留了退路——他们没公布具体哪些文章被标记,只给了比例和趋势。这种克制很聪明,毕竟"AI痕迹"和"AI代写"之间,隔着一整片灰色沼泽。
观点文章成为重灾区,逻辑上说得通。这些稿件作者往往不是报社员工,是外部投稿人、学者、行业人士。编辑部对它们的流程管控,比自家记者的报道宽松得多。一个人在家用ChatGPT润色三遍再投稿,编辑很难察觉——尤其当润色的是英文母语者本来就擅长的"流畅度"时。
6倍差距背后:新闻room的防线与外包的漏洞
![]()
研究里的对比设计很有意思。同一批报纸,新闻room产出 vs. 观点版投稿,AI痕迹概率差出6倍。这不是说调查记者更道德,而是组织机制在起作用。
大型新闻room现在普遍有内部规范。《纽约时报》2023年就出台了生成式AI使用指南,限制记者在报道中直接调用大模型。但指南管得了员工,管不了Opinion版那些"周末专栏作家"。这些人签合同、交稿件、拿稿酬,写作过程完全是黑箱。
更隐蔽的问题是"风格传染"。Gilgan的描述很典型:她没让AI代写,只是"不断咨询"。但2024年的神经科学研究已经显示,长期与LLM(大语言模型)对话会改变人的表达习惯——句式变规整、隐喻变平庸、情感峰值被削平。你以为是自己在写,其实是AI的统计概率在借你的手指输出。
这种"人机共生"状态,检测器能抓到痕迹,但作者自己可能真心认为"这是我写的"。
9%意味着什么:一个被低估的行业转折点
9%这个数字需要校准。它不是"9%的文章由AI独立完成",而是"包含可检测的AI生成特征"——可能是一段话、一个改写建议、一次语法修正。但即便如此,比例也足够让订阅者皱眉:我每年付几百美元,买的到底是人的判断,还是算法的平滑输出?
新闻业的特殊之处在于,它的产品就是"人的可信度"。《纽约时报》的订户买的不是信息——信息免费的地方多了去了——买的是"经过专业筛选和人格背书"的视角。当这个视角可以被AI无痕介入,契约就出现了裂缝。
研究者选择预印本形式发布,而不是等期刊审稿,本身也说明紧迫感。他们想让行业尽快讨论,而不是等六个月后的正式发表。这种"抢跑"在学术界少见,在AI时代越来越普遍。
![]()
地方报纸的9%和主流大报的6倍差距,指向同一个趋势:AI渗透与组织松散度正相关。资源少、流程乱、外包多的地方,AI痕迹就多。这不是技术问题,是治理问题。
检测军备竞赛:道高一尺之后
Pangram Labs的商业模式很有意思。它不卖终端用户,卖B2B服务——媒体机构、出版商、内容平台。检测AI生成内容,正在变成和检测抄袭一样的标配基础设施。
但技术对抗永远滞后。GPT-4到GPT-4o的迭代,已经让部分检测器的准确率下滑。研究者用的Pangram版本是2024年初的,半年后是否还可靠,没人能保证。更长期的担忧是:当AI写作和人类写作的统计分布越来越重叠,"检测"这个概念本身会不会失效?
《大西洋月刊》的报道里有个细节:Gilgan的专栏被质疑后,她主动联系了编辑说明情况。这种"自曝"在Opinion版作者里有多普遍?没人统计。更多人可能是沉默的——不是故意欺骗,而是真心不觉得自己用了AI,或者不觉得"用AI改语法"值得申报。
新闻机构的申报制度目前五花八门。有些要求任何AI辅助都必须标注,有些只限制"实质性内容生成",还有些根本没书面规定。这种混乱给了作者解释空间,也给了读者困惑空间。
一个《纽约时报》的终身订户在社交媒体留言:"我读了二十年Modern Love,是为了看真人怎么爱、怎么失去。如果这是AI优化过的情感模板,我和看网文有什么区别?"这条评论获得高赞,然后被算法推给了更多人——包括可能正在用AI写回复的人。
研究者在预印本结尾留了开放式结论:他们建议新闻机构建立更透明的AI使用披露机制,但没给具体方案。这个留白很诚实。技术检测能做到的,已经做了;剩下的组织变革、伦理协商、读者沟通,没有标准答案。
9%的文章比例,6倍的版面对比,这些数字会更新、会被质疑、会被后续研究修正。但它们已经做到了一件事:把"AI是否入侵了严肃新闻"这个抽象问题,变成了可以追踪、可以争论、可以问责的具体议程。对于一份预印本研究来说,这算是超额完成任务。
接下来要看的是,《纽约时报》们会不会主动公布自己的内部审计——如果有的话。以及,当检测工具下一轮升级后,这个9%是会下降,还是因为识别更精准而上升?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.