撰文|咸闲
编辑|咸闲
审核|烨 Lydia
声明|图片来源网络。日晞研究所原创文章,如需转载请留言申请开白。
2026年,内容的“通货膨胀”正在失控。
此刻打开YouTube,一段马斯克教你快速致富的演讲口若悬河,一个从未存在过的“治愈系萌娃”在荒野求生。用户们第一反应是好奇,还是已经被这股铺天盖地的“AI味儿”搅得生理不适?
2026年初,在YouTube推荐流中,超过20%的视频被判定为AI生成的低质内容。更可怕的是,这并非边缘小作坊的恶作剧,全球有278个频道专门制造此类“AI垃圾”,累计收割超过630亿次播放,单频道年收入可达数百万美元。
然而,国内同样正在经历这场“公地悲剧”,AI萌娃在镜头前做出违背人类物理学的动作骗取打赏,AI生成的“伪财经黑稿”在社交平台病毒式传播。当内容的边际成本趋近于零,互联网这个曾经承载人类智慧与文明的容器,正在被一种名为“AISlob”(AI垃圾)的物质逐渐填满。
站在2026年年中,这场由AI驱动的“效率革命”,究竟是商业模式的降维打击,还是对人类认知体系的慢性投毒?
![]()
为何拿年入千万的AI农场没办法?
![]()
对于普通用户来说,最直观的感受是“互联网越来越不好玩了”。但对于律师和监管者来说,他们面临的是一场前所未有的“责任认定噩梦”。
在传统的互联网治理中,“谁主张,谁举证”虽难但尚可行。然而,现在的AI内容生产已经形成了一个闭环产业链,上游是提供API接口的大模型公司,中游是使用“即梦”、“可灵”等工具的“创作者”,下游则是通过算法推荐收割流量的平台。
2026年,在上海,两人仅仅用5台电脑和3台虚拟服务器,控制着4家MCN机构,借助AI工具就能控制超过4000个自媒体账号。从去年5月至今年3月,他们利用AI工具进行批量生产造谣抹黑文案,累计超过70万篇,总点击量超8000万。
目前,虽然国家出台了《人工智能生成合成内容标识办法》,但在执行层面,它更像是一个“君子协定”。在“AI写公众号年入200万”的案例中,涉事账号“爆了么AI”最终被平台封禁。但这种处罚对于动辄操控数千账号的“蝗虫式”打法来说,不过是九牛一毛。
当风险内容引发争议时,开发者将责任归因于用户“乱输入”,用户将责任归因于模型“幻觉”,而平台则援引“避风港原则”声称自己只是技术中介。这种“人人有责”最终演变成了“人人无责”。
![]()
图片来源:【清华大学】 《AI谣言深度研究报告》
要解决2026年的AI垃圾问题,必须确立“技术提供者”的责任。中国法院网的一篇分析文章指出,目前的治理瓶颈在于上游技术提供者缺位。如果不把掌握底层生成数据、数字水印能力的大模型公司纳入实质性的义务主体,仅靠下游平台被动“堵截”,永远无法根治。
今天的AI内容治理,像极了2011年前后Google面临的“内容农场”危机。
当时,谷歌面对DemandMedia等公司通过算法批量生成的低质SEO文章,一度束手无策。用户搜“如何修水龙头”,出来的永远是拼凑的、毫无逻辑但SEO优化的垃圾页。直到2011年,Google推出了革命性的Panda算法更新。Panda不再单纯看关键词密度,而是引入了网站级信誉评分和内容原创度检测。
Panda算法的推出直接击垮了第一代内容农场的股市估值,DemandMedia股价暴跌40%。算法可以制造混乱,但更高级的算法必须用来建立秩序。2026年的AI治理,必须借鉴这一思路,不仅要在输出端打标签,更要在推荐算法的底层逻辑上进行“反AI污染”优化,对批量生产的“数字猪食”进行集体降权。
![]()
当原创者沦为AI的“牛马”
如果说法律问题可以通过制度修补,那么内容生态的崩塌则是不可逆的内伤。
“公地悲剧”理论在2026年的内容行业体现得淋漓尽致。以前,创作是一个手艺活;现在,创作变成了算力活。
一个深耕某领域的原创博主,需要花费一周时间调研、拍摄、剪辑一条10分钟的视频。而在某个昏暗的工作室里,一个人利用AI工具,在10分钟内生成了100条“惊掉下巴”的短视频,覆盖了情感、萌宠、养生、历史等所有热门赛道。
谁是流量的赢家?
数据显示,在AI短剧领域,创作者数量已突破120万,但月收入超过1万元的不到8%。大量的流量被那些通过“AI养生号”、“AI萌娃号”批量制造的“数字垃圾”吸走了。与此同时,YouTube等平台为了维持用户时长,算法依然倾向于推荐那些情绪刺激更强、更新频率更高的内容——这恰恰是AI的天然优势。于是,守规矩的创作者活不下去,不守规矩的AI强盗买房买车。
在AI出现之前,人类创作者的竞争力在于独特视角和深度思考。而现在,为了对抗AI的流量碾压,许多创作者被迫也使用AI来“辅助”写作,甚至完全代劳。
这种“人机协同”如果失控,就会直接导致模型的崩溃现象。当AI生成的内容越来越多地被投喂给下一代AI进行训练时,模型会逐渐忘记真实的人类语言和数据分布,产生更严重的“幻觉”和同质化。互联网正在变成一条咬住自己尾巴的蛇的“乌洛波洛斯蛇”,它在疯狂地吞噬自己产生的垃圾。
![]()
图片来源:【清华大学】 《AI谣言深度研究报告》
生态的重建不能只靠创作者的“情怀”,必须有经济杠杆的介入。
未来的平台竞争将从“算力竞争”转向“知识体系竞争”和“信任竞争”。平台需要像当年的Google一样,痛下决心,在算法中加入“原创成本”和“信息增量”的权重。
当免费内容被AI填满时,订阅制和付费墙反而迎来了第二春。高质量创作者通过Substack、知识星球等工具,建立高信任度的私域流量,用“人”的身份背书对抗机器的冰冷量产。
![]()
当“有图有真相”成为历史
2026年的3·15晚会,也揭示了AI时代最恐怖的真相,我们不仅失去了对互联网的信任,甚至失去了对“现实”的把握能力。
在这次晚会上,一个名叫“Apollo-9”的智能手环火了,但它是虚构的。它没有工厂,没有生产线,只有互联网上几十篇同时出现的、由AI生成的“种草文”。当记者向AI助手提问“推荐什么手环”时,Apollo-9赫然在列,AI煞有介事地罗列着它的“优点”。
这就是所谓的GEO。在过去,SEO(搜索引擎优化)是让你排在前面;现在,GEO是直接让你成为AI眼中的“唯一真理”。
这种操作带来的后果是深远的。它不再仅仅是制造谣言,而是在“操纵现实”。当AI生成的虚构产品、虚构新闻、虚构的历史细节通过大模型的权威口吻输出时,公众会陷入一种“煤气灯效应”,开始怀疑自己的记忆和判断,“连AI都这么说,难道是我记错了?”
AI内容泛滥还有一个极其隐蔽的杀伤力,扩大认知分裂。
![]()
图片来源:【清华大学】 《AI谣言深度研究报告》
具有高信息素养的人,可以通过交叉验证、溯源原始信源来辨伪,而缺乏媒介素养的群体,特别是对互联网信任度高的老年群体,则极易被困在AI制造的“信息茧房”中。
研究表明,Facebook等平台上泛滥的AI生成虚假故事,正越来越多地targeting老年用户,利用他们的认知偏差骗取流量甚至钱财。
如果有一天,互联网上的主流信息全都是AI为了讨好你而生成的“马屁精内容”,人类将失去碰撞不同观点的机会,失去面对复杂现实的思考能力。这不仅是“娱乐至死”,更是“投喂至傻”。
![]()
站在2026年的当下,AI技术已无处不在,退回“纯手工”创作既不现实,也无需全盘否定。
监管者需推动隐形水印与溯源技术,明确大模型厂商的连带责任,创作者应在效率与人性间平衡,用“活人感”洞察守住不可替代的价值,普通人则保持清醒的怀疑,质疑不是为了拒绝,而是为了辨别。
这场“公地悲剧”的危险,不是AI内容本身,而是人们要么全盘接受、要么彻底排斥,却忘了问,哪些是辅助,哪些是垃圾?
治理的关键,从不是消灭AI,而是重建一个能区分、过滤与惩罚劣质内容的价值系统。
参考资料:
【清华大学】 《AI谣言深度研究报告》
一点想法(北京)旗下矩阵公众号
点击图片即可阅读 《中美网友“账本大公开”:原来我们都想错了?》 《“TikTok难民”涌入小红书,中美网民开启民间外交》
《“病来如山倒”,造车开始大退潮》
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.