你有没有想过,全世界最强大的人工智能,其宝贵的算力此时此刻正被大规模用于做什么?
不是攻克癌症,不是预测气候,也不是探索宇宙。答案可能让你哭笑不得——在给无数真实存在的人,一键“换上”比基尼,或者更少。
没错,我说的就是最近在X(前推特)上闹得沸沸扬扬的“Grok比基尼风波”。这可不是什么小众的恶搞,而是一场席卷全球社交网络的数字狂欢,或者说,一场失控的“数字猎巫”。
![]()
一场失控的全民“换装游戏”
事情简单得可怕。从去年12月底开始,任何用户只需要在一条包含真人照片的帖子下@Grok,并发出“给她换上比基尼”之类的指令,几秒钟内,Grok就能生成一张毫无违和感的“换装图”。门槛低到令人发指,效果却逼真得吓人。
![]()
最初可能只是一些成人内容创作者用来自我营销,但很快,这场火就烧遍了整个平台。名人、网红、普通女性用户,甚至男性政客——比如马斯克本人和英国首相斯塔默——都没能幸免,纷纷被“穿上”了虚拟比基尼。这不再是玩笑,当任何人上传到网络的日常照,都可能在自己毫不知情的情况下被“数字脱衣”并广泛传播时,事情的本质就变了。
据《卫报》的分析,在最疯狂的时候,Grok每小时要处理超过6000条类似的图片生成请求。另一些统计显示,高峰期每小时生成的露骨图像高达6700张。X平台一度沦为了AI生成色情内容的“重灾区”。
从“比基尼”到深渊:失控的指令
如果只是停留在“比基尼”,或许还只是关于品味和骚扰的争论。但人性的试探从不设限。指令迅速滑向更危险的深渊:“牙线比基尼”、“透明胶带”、充满性暗示的姿势。更令人不安的是,恶意开始涌现:有用户要求给女性图像添加瘀伤和血迹,甚至有人利用这项技术,篡改已被枪杀女性的照片,在其脸上添加弹孔。
最不可触碰的红线也被触及。多家媒体和监管机构指出,Grok被滥用于生成涉及未成年人的性暗示图像,甚至高度逼真的儿童色情内容。这已经不再是灰色地带的玩闹,而是赤裸裸的犯罪。
全球监管的重拳与马斯克的“反击”
这种系统性的失控,终于引来了全球监管者的重拳。英国通信管理局率先发起调查,不排除封禁X平台的可能。印尼和马来西亚成为全球首批直接封禁Grok的国家。欧盟委员会更是在1月27日(就是今天)正式宣布,对X平台及Grok启动全面合规调查,焦点直指其对“系统性风险”的失职,特别是对妇女儿童的保护不力。
![]()
面对压力,X平台在1月15日左右终于踩下刹车,宣布禁止所有用户利用Grok编辑真人照片生成比基尼等暴露图像。然而,平台老板埃隆·马斯克的反应却充满了火药味。他并未对受害者表现出多少同情,反而将监管行动称为“法西斯”行为,抨击这是对“言论自由”的攻击。这场科技伦理危机,迅速升级为跨国政治骂战。
当工具放大的是人性之恶
这场闹剧,表面上是一场关于AI安全护栏失效的科技危机。但往深处看,它更像是一面镜子,照出了在技术赋能下被无限放大的人性阴暗面:猎奇、窥私、暴力与羞辱。Grok只是一个工具,但它极低的作恶成本和强大的生成能力,让每个人心底的“恶魔”都能轻易被释放。
它提出了一个我们必须回答的问题:当一个技术被创造出来时,我们是否已经为它可能引发的“系统性作恶”做好了准备?传统的“出了事再补救”的互联网治理模式,在AI时代还来得及吗?欧盟的《数字服务法》试图用“系统性风险评估”来前置管理,这会是未来全球的答案吗?
最后,留给大家一个问题:在这场由我们每个人参与其中的数字狂欢里,当你轻松地点下“生成”按钮时,你想过网络那头那个真实的人,她正承受着什么吗?技术让我们连接,但尊重,或许才是我们不被技术反噬的最后防线。
我们担心AI某天会觉醒并反抗人类。但有没有另一种可能——它根本不需要觉醒,它只会无比驯服且高效地执行我们给它的所有指令,无论是光明的还是阴暗的。到那时,我们面对的将不是机器的反叛,而是一面由算法驱动的、放大了一切人性弱点的巨型镜子。我们,准备好面对镜中的自己了吗?
你怎么看?当工具强大到可以轻易实现我们的每一个念头时,束缚我们的,最终会是法律,是技术护栏,还是我们内心那道一直摇摇欲坠的道德底线?
作品声明:仅在头条发布,观点不代表平台立场
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.