
引言Deepfakes 故意欺骗,幻觉偶然制造,而 AI 垃圾则因冷漠而充斥互联网。
![]()
如果你最近浏览社交媒体时觉得“感觉不对劲”,那你可不是在胡思乱想。互联网上充斥着所谓的“人工智能垃圾” ——一波廉价、无尽且难以摆脱的机器制造的垃圾内容。
这个词最初是几年前的网络俚语,但很快就变成了指代日益泛滥的、低效的人工智能生成的信息的简称。可以把它想象成社交媒体时代的垃圾邮件。糟糕的电子邮件诈骗已经被乏味的博客文章、虚假新闻片段、超现实的视频和库存照片所取代,坦白说,这些东西根本不应该被公开。
01
AI slop 的真正含义
slop 过去被用来形容用剩菜做成的动物饲料。在今天的语境中,它同样指廉价的填充物。AI slop 指的是快速且草率地生成的内容,缺乏原创性或事实准确性。
你会发现每个平台上都充斥着人工智能的拙劣行径,从用机器人配音的视频,到互相抄袭人工智能撰写文章的“新闻”网站,再到抖音视频中模仿Siri模仿人类的声音。就连搜索结果也开始显得更加粗糙,人工智能生成的操作指南和产品评论的排名甚至超过了真实的客户报告。
问题不在于人工智能天生不擅长创造,而在于太多人利用人工智能在互联网上发布看似有用但实际上毫无意义的内容。
但在某些情况下,人工智能非常优秀,能够自信地愚弄人类。这些内容在未经任何人核实其真实性之前就被分享、转发并货币化,就像我们在社交媒体上经常看到的那样。
02
AI 垃圾与深度伪造和幻觉有何不同
AI 伪造与深度伪造或幻觉并不相同,尽管这三者之间经常存在模糊。区别在于意图和质量。
深度伪造是指利用人工智能生成或篡改逼真的视频和音频,使人看起来像是在做或说他们从未做过的事情的精确伪造。其目的是欺骗,从虚假的政治演讲到用于诈骗的克隆语音,都是如此。深度伪造的目标是个人,其危险之处在于其逼真程度。
人工智能幻觉是技术错误。聊天机器人可能会引用一项不存在的研究,或者凭空捏造一个法律案例。该模型并非试图误导——幻觉发生在它预测下一个可能的词语时,结果却错了。
人工智能的“乱码”现象更为广泛,也更加粗心大意。当人们利用人工智能大量生产文章、视频、音乐和艺术作品等内容,而不检查其准确性和连贯性时,就会发生这种情况。它会堵塞信息流,增加广告收入,并在搜索结果中充斥着重复或无意义的内容。它的不准确性源于疏忽,而非欺骗或错误。
简而言之,深度伪造是故意欺骗,幻觉是无意制造的,而人工智能垃圾则因冷漠而充斥互联网,通常是出于对快速赚钱的贪婪。
![]()
我在 Grok 中创作这幅图像的提示是:“制作一张逼真的特写照片,照片中是一碗用果冻制成的拉面,用小熊软糖代替肉,里面漂浮着一只塑料玩具鸭,房间光线昏暗,空荡荡的,边缘模糊,配色奇怪,让人倒胃口。”
03
所有这些 AI 垃圾都是从哪里来的?
AI 垃圾传播如此迅速的部分原因在于 AI 技术变得强大而廉价。AI 公司创建这些模型,希望能够降低那些拥有伟大想法但缺乏人才或资金的人的准入门槛。最终的结果是,人们要求 AI 工具大量生产文本和图像,以获取点击量或广告收入。
这是一场量变游戏。如果一个视频表现良好,就会有更多类似的视频被制作出来,最终导致数字世界一片混乱,而网络上的版本迭代也异常频繁。
一旦像ChatGPT、Gemini和Claude这样的工具能够在几秒钟内生成可读的文本、图像和视频,尤其是使用像 Sora 和 Veo 这样的较新的 AI 生成器时,内容农场就会加入进来。他们意识到他们可以用 AI 内容填充网站、社交信息流和YouTube ,速度比任何人类团队编写、编辑或拍摄的速度都要快。
例如,尽管只有四个视频,这个 YouTube 频道却积累了 420 万订阅者和数亿的观看次数:
![]()
平台也发挥了作用。算法通常奖励数量和参与度,而不是质量。你发布的内容越多,你获得的关注就越多,即使你发布的内容很无厘头(比如吃播之类的)。人工智能让这一策略的推广变得轻而易举。
这其中也牵涉到金钱。一些创作者会发布虚假的名人新闻或充斥着广告的点击诱饵视频。另一些人则利用人工智能内容来欺骗推荐,并将流量引向低效的网站。他们的目的并非提供信息或娱乐,而是希望每次观看都能赚取几分钱,然后乘以数百万。
奥格雷迪多年来一直关注着人工智能的演变,但他表示,“很多这种新人工智能的新鲜感也会很快消失。”
04
人工智能如何毁掉互联网
乍一看,垃圾信息似乎无害——你的动态里出现几条糟糕的帖子,或许还能让你笑一笑。但数量之多会改变一切,让读者感到疲惫。随着垃圾信息的传播,可靠的信息来源在搜索结果中排名下降,人类创作者也因此被挤出。它也模糊了真相与虚构之间的界限。当你看到的内容有一半看起来像是模拟的,你就很难再相信剩下的内容了。
信任的侵蚀会带来切实的后果。当无人知晓真伪时,虚假信息传播得更快。骗子利用人工智能打造令人信服的虚假品牌,或冒充普通人甚至官员。广告商正苦苦挣扎,因为他们的广告宣传有时会与人工智能垃圾一起出现在视频平台上,从而损害品牌信誉。
当暴力或怪诞的人工智能混搭风靡网络时,这究竟反映了我们人性的什么?
与思考生成人工智能视频的经济后果相比,思考我们的文化将走向何方以及我们将如何使用这些工具更让人们感到害怕。
05
我们能对人工智能的失误做些什么呢?
目前还没有完美的解决方案,但一些公司正在尝试。像一些平台已经开始给 AI 生成的媒体内容贴标签,并调整算法以降低低质量输出的排名。谷歌、TikTok和OpenAI承诺推出水印系统,帮助你区分人类内容和合成内容。不过,如果有人截取图片、重新编码视频或重写 AI 文本,这些方法仍然很容易被绕过。
部分修复方案依赖于一个名为C2PA的框架,即内容来源和真实性联盟 (Coalition for Content Provenance and Authenticity)。C2PA 是由 Adobe、亚马逊、微软和Meta等公司支持的行业标准,它将元数据直接嵌入数字文件中,以显示文件的创建和编辑时间及方式。
如果 C2PA 能够按预期运行,它将帮助您追踪图像、视频或文章是来自经过验证的人工来源还是 AI 生成器。挑战在于采用,因为元数据可能会被剥离或忽略,而且大多数平台并没有始终如一地执行。
水印甚至可能被反过来用 —— 用来‘鉴定’那些看起来是真实的内容。要么把真内容标成假的,要么给假内容贴‘真’的标签,反而混淆真假
创作者们也在以自己的方式反击。许多记者和艺术家强调人类的创作。一些作者会附上一句简单的注释:“没有使用人工智能”,以此向读者保证,这件作品是人创作的,而不是被提示的。
06
人工智能的失误能被阻止吗?
或许并非完全如此。一旦文字和图像的大规模生产变得几乎免费且相当容易,闸门就打开了。人工智能不在乎真实性、品味或原创性。它关心的是概率。而这正是让劣质作品如此容易产生却又如此难以避免的原因。
但提高意识是有帮助的。人们正在学习发现规律,同样的措辞(“挂毯”、“在……的时代”、“不仅如此,而且”是一些常见的措辞),同样的空洞语言,听起来人性化,实际却空洞无物。
然而,人工智能工具正在快速发展,目前出现的任何人工智能模型都是最糟糕的。
认知成本是真实存在的。“我认为所有这些对大脑都非常有害,就像垃圾食品一样,”奥格雷迪说。“你的大脑就是你摄入的。如果我们整天都在摄入垃圾食品,因为垃圾食品就是我们所能获得的全部,我认为这非常危险。”
他说,人工智能的当前趋势表明,我们的未来可能只是一个无尽的、毫无意义的宇宙,充斥着鲍勃·罗斯模因、“虾耶稣”和其他荒谬的废话,而不是像奥格雷迪所说的那样,走向预言中的“银河技术乌托邦”或意识融合的奇点。
目前,最好的防御手段就是我们的注意力。自动化、不假思索的滚动浏览或分享,才是垃圾内容滋生的根源——我们都犯过这种错误。放慢脚步,查看资源,奖励那些仍在付出真正努力的创作者。这或许无法在一夜之间解决这一问题,但这至少是一个开始。
互联网曾经经历过这样的情况。我们曾与垃圾邮件、点击诱饵、虚假信息和错误信息作斗争。人工智能的劣化是同一故事的下一个版本,速度更快、更狡猾,但更难被发现。网络能否保持其完整性,取决于我们仍然在多大程度上重视人类劳动而非机器产出。
免责声明:
本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。如有侵权,请与我们联系删除。所有信息不构成任何投资建议,加密市场具有高度风险,投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。
设为星标 避免错过
虚拟世界没有旁观者,每个点赞都是创造历史的像素
关注我,一起探索AWM⁺
2025-10-03
2025-10-02
2025-10-01
商业赞助
![]()
点击下方 “目录” 阅读更多
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.