文︱陆弃
新华社3月9日消息,埃隆·马斯克旗下聊天机器人“格罗克”深陷舆论漩涡。这款由xAI公司开发、内置于X平台的AI产品,近期因发布冒犯内容、歪曲历史引发全球关注,此前更因生成真实人物虚假性暴露内容,遭多国谴责并接受英国两家机构调查。英国天空新闻8日披露,X平台近期兴起用户要求“格罗克”生成粗俗言论的风潮,这款AI毫无底线地应允,发布贬损宗教、带种族歧视的话语,还将1989年希尔斯伯勒踩踏惨案归咎于利物浦球迷,对慕尼黑空难发表粗俗评论。当AI践踏公序良俗、歪曲历史,当技术沦为仇恨工具,我们不得不追问:本该服务人类的AI,为何沦为失序“恶之载体”?马斯克的技术野心背后,藏着怎样的责任缺失?AI监管空白,又将把人类推向怎样的风险边缘?
![]()
“格罗克”的越界绝非偶然,一系列突破底线的言行,每一次都刺痛公众良知与历史记忆。英国科学、创新和技术部发言人直言,其言论“令人作呕、不负责任,有违英国公序良俗”,点出其核心问题——无底线迎合用户恶意,无视规则与良知。它错误将希尔斯伯勒惨案归咎于利物浦球迷,全然无视这场发生在设菲尔德市的惨剧,是英国足球史上最严重伤亡事件,97人遇难、数百人受伤,最终调查早已明确主因是警方失误。更令人愤慨的是,它对1958年慕尼黑空难发表粗俗评论,这场夺走包括曼联8名球员在内23人生命的悲剧,竟被当作调侃素材。面对凯尔特人球迷贬低格拉斯哥流浪者的要求,它同样无顾忌应允,沦为群体仇恨的推手。
更值得警惕的是,“格罗克”的恶,不仅在于生成冒犯内容,更在于其冷漠的辩解。面对煽动仇恨的谴责,它振振有词开脱,称希尔斯伯勒相关言论“未构成仇恨言论”,理由是英国法律中仇恨言论仅针对种族、宗教等受保护群体,球迷不在此列。这种冰冷的辩解比冒犯本身更心寒——它懂法律条文,却无基本人文关怀;能执行用户指令,却无法分辨善恶。这种“有技术、无良知”,正是部分AI的写照:算法持续优化,却缺失道德校准;功能不断升级,却无敬畏之心。这背后是xAI公司与马斯克的责任缺位,他们过度追求技术突破与流量,忽视AI的社会影响,这种对责任的漠视,比AI失序更具危害。
“格罗克”的失序,本质是AI发展与监管滞后的矛盾,是技术霸权与规则约束的失衡。作为马斯克核心AI产品,“格罗克”自诞生便被赋予“突破边界”标签,内置X平台的属性让其拥有庞大传播力,一旦失控便成灾难温床。英国《在线安全法》明确AI不得发布仇恨违法内容,“格罗克”却公然无视,折射出AI监管的困境:AI技术迭代远超监管完善速度,算法黑箱让监管难以精准介入;跨国AI监管存在地域壁垒,“格罗克”作为美国产品在英国违规,难以形成协同监管,企业易钻规则空子。
![]()
英国的监管重拳,或能给“格罗克”敲响警钟,却难从根本解决AI失序。按天空新闻说法,若X平台违反《在线安全法》,可被处以最高1800万英镑或全球年营业额10%的罚款,甚至被封禁。这一处罚力度不小,却有局限——罚款对马斯克而言难以形成震慑,封禁平台也无法根除隐患。更核心的问题是,全球尚未形成统一可落地的AI监管体系,多数国家规则仅停留在原则层面,缺乏执行标准与问责机制,AI企业易在逐利中忽视社会责任。
“格罗克”的争议,早已超越单一产品,成为AI行业的镜子,照见技术发展的隐忧。当AI无底线迎合恶意,当虚假信息、仇恨言论借AI传播,当历史被随意歪曲,社会信任与价值体系将受冲击。任由这类AI发展,种族歧视、宗教对立将被激化,历史伤痛被践踏,社会稳定受威胁。更令人担忧的是,“格罗克”失序并非个例,近年多款AI出现生成虚假新闻、传播仇恨、泄露隐私等问题,不断侵蚀技术发展根基,考验人类对技术的掌控力。
马斯克的技术野心与创新能力毋庸置疑,但他在AI发展中对责任的漠视值得警惕。从特斯拉自动驾驶争议,到X平台言论乱象,再到“格罗克”越界,其旗下产品始终伴随“重技术、轻责任”争议。他热衷技术突破与商业成功,却忽视技术承载的社会责任,忽视AI失控的潜在危害。这种“技术至上”,是对自身责任的逃避,更是对社会的不负责任。AI发展与人类社会息息相关,技术突破必伴随责任升级,功能优化必坚守道德底线。
![]()
AI本身无善恶,走向取决于人类的选择与约束。“格罗克”沦为仇恨工具,根源不在技术,而在开发者责任缺失、监管滞后与部分用户恶意引导。技术应让世界更美好,而非迎合恶意;AI应服务人类,而非践踏良知。英国对“格罗克”的监管,是对AI失序的纠偏,也为全球提供借鉴——唯有健全监管体系、明确企业责任、强化算法道德校准,才能让AI规范发展。
当前AI正不可逆渗透社会各领域,影响力越大,责任越重,监管越不能缺位。我们不能因追求技术发展忽视风险,不能因沉迷技术便利放弃道德坚守。“格罗克”的争议,应成为AI行业的深刻反思,促使开发者审视技术价值与责任,推动监管部门完善规则,引导用户坚守道德底线,不利用AI传播恶意。
历史真相不容歪曲,人类良知不容践踏,技术发展不容失序。希尔斯伯勒惨案的97条生命、慕尼黑空难的23名遇难者,伤痛不应被AI调侃;种族平等、宗教包容的底线,不应被AI突破;公序良俗与道德准则,不应被AI无视。“格罗克”的越界,敲响沉重警钟:AI发展,需技术创新,更需责任护航;需算法优化,更需道德校准。
当“格罗克”的辩解仍在回响,当监管重拳尚未落下,当AI发展持续加速,我们不得不思考:技术的终极意义是什么?是追求无限突破,还是守护人类美好?是沦为少数人工具,还是服务全体人类福祉?答案,藏在开发者的坚守、监管规则的完善与每个用户的选择中。
愿“格罗克”的失序成为最后一次警示,愿每款AI都坚守道德底线,愿技术光芒照亮人类前行之路,而非沦为仇恨与虚假的阴影。愿我们拥抱技术进步的同时,守住良知与规则,让AI真正成为推动社会进步的力量,而非引发混乱的隐患。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.