2007年注册的WWE老频道,近2000订阅,现在靠两小时长的AI胡言乱语活着。最讽刺的是:这些视频里,机器人主播会突然卡住,把"what"重复几百遍,最后发出不可描述的气泡音——而YouTube的算法还在给它们推流。
这不是技术故障,是平台治理的系统性失灵。
![]()
一、当AI配音开始"鬼畜"
Bluesky用户最近挖到一个叫"Joe Liza WWE"的频道。表面看是摔角内容,点进去才发现:画面是游戏《WWE 2K》片段、AI生成素材和真实比赛混剪,配音是男声机器人。
诡异的是,这个机器人会突然"崩溃"。
一段已被设为私密的视频里,AI主播重复"what"或"whoa"长达数分钟,语调越来越激动,最后变成类似口腔气泡的怪声。另一段26分钟的视频,四分钟处出现同样的卡壳——YouTube评论区有人精准标记:"这AI配音是不是中风了"。
更荒诞的是,这些视频长度动辄一两小时。这意味着:从生成到上传,可能没有任何人类完整看过一遍。
平台治理的漏洞被赤裸裸地暴露。YouTube的"打地鼠"式清理显然没打到这个角落。频道从2007年存活至今,粉丝不到2000,却能源源不断产出长视频——质量低到连AI自己都"失控",却依然能挤进推荐流。
二、谁在喂养这条流水线
内容本身充满拼凑感。真假素材混剪、游戏画面穿插、机器人念稿——这套组合拳指向一个目标:蹭算法。
具体手法很直白。利用相关视频推荐和自动播放机制,把误点进来的用户留住。哪怕只看完开头,也算一次"观看"。
但变现门槛其实不低。YouTube合作伙伴计划要求:1000订阅或过去12个月4000小时公开观看时长。该频道订阅数卡在2000,部分视频已被设为私密,实际收益成谜。
更隐蔽的动机可能是信息污染。频道曾发布"WWE传奇人物透露查克·诺里斯被杀原因"这类完全捏造的标题——AI不仅生产噪音,还在批量制造假新闻。
这里有个被忽视的细节:2007年的老账号。相比新注册账号,历史频道更容易获得平台信任权重。这可能是钻空子的关键——用"老号+AI量产"绕过部分风控。
三、"无AI"标签的反向信号
这场荒诞剧最讽刺的副产品,是用户自救。
一些频道开始在 playlist 标注"无AI",作为卖点吸引厌倦者。这相当于承认:平台内容池已经脏到需要"反向筛选"了。
但"无AI"标签本身也有问题。谁来认证?怎么执行?它更像一种姿态,而非解决方案。
真正值得追问的是平台责任边界。YouTube并非没有能力识别AI内容——它自己的工具就能标记合成语音。但面对海量上传,选择性的"打地鼠"成了默认策略:只处理被举报的、引发公关危机的,其余放任自流。
Joe Liza WWE 的"鬼畜配音"之所以被注意到,是因为足够怪异、足够好笑。那些更隐蔽的AI流水线——画面流畅、配音自然、只是信息全假——可能正安静地收割流量。
四、长视频工厂的恐怖谷
两小时的AI视频,人类不看,算法照推。这揭示了一个被低估的变量:内容时长与审核成本的倒挂。
越长的视频,人工审核成本越高。AI生成的长视频恰恰利用这一点——把"不可观看性"变成保护伞。机器不会疲劳,可以无限产出;人类审核员不可能逐帧检查两小时废话。
结果是诡异的质量分层。顶部是精心制作的真人内容,底部是粗制滥造的AI垃圾,中间地带逐渐空心化。中小创作者被夹在中间:既打不过顶部的专业团队,又卷不过底部的零成本机器。
评论区成了唯一的纠错机制。"这AI是不是中风了"——用户的嘲讽比平台的风控更快。但依赖用户发现,意味着大量问题内容早已完成传播周期。
更深层的问题在于,这种内容正在训练用户的耐受阈值。当"机器人卡壳重复what"都能获得"笑死我了"的评论,低质内容的定义本身在被改写。
五、平台治理的算法困境
YouTube的困境具有代表性。所有依赖推荐算法的平台,都面临同样的张力:效率与质量的不可兼得。
算法优化的是停留时长、点击率、完播率——这些指标与"内容是否由人类制作"无直接关联。一个让观众困惑到看完的"鬼畜AI视频",在数据表现上可能优于平淡但真实的科普内容。
这就解释了为何"打地鼠"治理注定失败。平台没有动力系统性清理低质AI内容,只要它们还在贡献数据指标。直到出现公关危机——比如儿童接触到不当AI内容——才会象征性出手。
Joe Liza WWE 的案例提供了另一个观察角度:老账号的"信用套利"。平台风控系统通常给历史账号更高权重,这本是为了保护长期运营者,却被 repurposing(重新利用)成AI内容的保护伞。2007年的注册时间,成了2024年的免死金牌。
这种漏洞很难修补。严格审查老账号会误伤真实创作者,放松标准则放任套利者。平台陷入两难,最终选择维持现状。
六、用户端的认知战
面对AI slop,用户正在发展出新的防御机制。
评论区鉴伪、标题党识别、语音卡顿标记——这些技能正在快速普及。但这是一场不对称战争:用户需要逐条辨别,AI可以批量生成。
"无AI"标签的兴起,反映了信任重构的需求。用户不再默认平台内容可信,转而依赖创作者自我声明。这种转移的风险显而易见:声明本身也可以伪造。
更隐蔽的伤害是注意力剥夺。当平台被低质AI内容淹没,寻找真实信息的成本急剧上升。不是每个人都能分辨"机器人卡壳"和"真人口误"的区别,尤其在多任务浏览场景下。
儿童内容是最危险的试验场。原文提到,YouTube上已有针对幼儿和学龄前儿童的"伪教育"AI视频。这些内容的危害不在于"鬼畜",而在于系统性的信息错误——孩子缺乏辨别能力,家长未必全程陪同。
Joe Liza WWE 的"what重复事件"之所以引发传播,恰恰因为它足够荒诞、足够安全。真正需要关注的,是那些不荒诞、不卡壳、只是 quietly wrong 的AI内容。
结语
一个2007年的老频道,用AI生成两小时长的摔角视频,机器人配音在第四分钟"中风"重复"what",YouTube算法继续推流,用户在评论区嘲笑——这幅图景浓缩了当下内容生态的荒诞。
平台治理的滞后、审核成本的制约、算法优化的扭曲激励,共同喂养了这条流水线。而"无AI"标签的出现,既是用户的自救,也是平台失败的承认。
更值得追问的是:当AI生成成本趋近于零,"人类是否看过"会成为内容质量的底线标准吗?还是说,我们终将习惯与机器生产的噪音共存,甚至学会从中提取乐趣——就像那些笑着评论"这AI中风了"的用户一样?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.