![]()
2025年4月,一个荒诞场景正在社交媒体上演——登月阴谋论者用AI生成的假视频,试图证明NASA的登月任务是假的。法国24台(France 24)追踪的一段视频显示,四名宇航员被吊在绿幕前,Artemis吉祥物漂浮在画面中,文字层与图像互相干扰,人物手指数量不对,肢体出现缺失。这不是NASA的 footage,这是AI slop(AI垃圾内容)。
用造假证明造假,这个逻辑闭环让整件事变成了一场行为艺术。
AI slop如何成为"证据"
加拿大广播公司(CBC)识别出另一段流传甚广的视频:镜头从四名宇航员缓缓移向舷窗外的地球。画面看似专业,直到你问出一个基础问题——这段视频是谁拍的?飞船内部没有第五个机位。虚假信息专家Tal Hagin分析后得出结论:这是"两段图像的AI拼接",一段是Artemis II乘组挥手的截图,另一段是从舷窗拍摄的地球照片,"AI被用来连接两者"。
X平台(原Twitter)上搜索"Artemis leaks",结果触目惊心。从悬挂假月球的绿幕场景,到声称NASA"用AI、CGI和绿幕造假"的洗脑内容,AI生成的虚假信息已经形成规模效应。Facebook上的"地平说"账号同样活跃,拿着早前的AI slop作为证据,论证NASA"用CGI伪造太空任务"。
平台监管缺位是加速器。马斯克接手后的X对AI内容几乎不设防,算法推荐机制让这些视频获得病毒式传播。一个讽刺的事实是:阴谋论者指责NASA用技术造假,自己却用更粗糙的技术制造"证据",而接收者往往看不出区别。
谁在制造这场混乱
动机层面存在两种可能。一类是"真信徒"——对登月造假理论深信不疑,以至于愿意用假证据说服他人接受自己的世界观。另一类是纯粹的恶作剧者,享受在社交媒体上愚弄易受骗的阴谋论者的快感。法国24台的报道提出了这个疑问,但没有给出确定答案。两种身份可能重叠,也可能在同一传播链条上分工协作。
![]()
技术门槛的降低改变了游戏规则。五年前,伪造一段宇航员的视频需要专业团队和昂贵设备;现在,任何拥有生成式AI工具的人都能在几小时内产出类似内容。更关键的是,这些内容的粗糙程度反而成为"真实感"的来源——阴谋论者习惯于从官方影像中"寻找破绽",AI生成的人体瑕疵恰好符合他们的认知框架。
Tal Hagin的拆解揭示了技术层面的脆弱性:拼接痕迹、物理逻辑错误、机位不可能性。但这些专业分析在传播链条的末端往往被省略,只剩下"视频在此,自行判断"的标题和数万次转发。
真相的通货膨胀危机
这场闹剧的真正危害不在于欺骗了多少人,而在于它对"证据"概念的腐蚀。当任何影像都可能是生成的,当任何生成物都可以被当作反证,公共讨论的基础正在瓦解。NASA的Artemis II任务绕月飞行并返回,这是有轨道数据、独立观测、国际协作支撑的事实;但在某些信息流中,它已经被降级为"另一种说法",与一段手指数量错误的AI视频平起平坐。
这种认知层面的损害难以量化,但迹象明显。虚假信息研究者注意到,AI slop的泛滥正在强化"所有媒体都不可信"的虚无主义态度——既然什么都可能是假的,那么选择相信什么就纯粹取决于立场和情绪。登月阴谋论是一个测试案例,它展示了技术如何被用来制造"证据的通货膨胀":当假证据无限供应时,真证据的稀缺性反而成为劣势。
平台层面的应对明显滞后。X的社区笔记(Community Notes)系统偶尔能标记误导内容,但速度赶不上传播速度。Facebook的算法则倾向于将争议性内容推向高互动用户,恰好是阴谋论者的聚集地。技术公司创造了生成工具,却没有同步建设识别和过滤的基础设施,这个缺口正在被各种利益方利用。
一个细节
回到那段绿幕视频。仔细观察Artemis吉祥物的运动轨迹——它与宇航员的身体穿模,文字层在漂浮过程中产生撕裂。这些瑕疵在十年前会被当作明显的伪造痕迹;今天,它们被重新编码为"NASA的失误"或"泄露的真相"。技术没有解决问题,它只是把识别真伪的认知负担,从专业机构转移到了每个普通用户身上。
当一段视频的真假需要逐帧分析手指数量才能判断,我们是否已经接受了某种不可逆的认知降级?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.