![]()
打开手机,你用AI查“二战日本核爆”,屏幕弹出“日本民众遭受巨大苦难,是战争受害者”,刷到绘画平台,87%的新作品由AI生成,画风全是西方审美。
就连看篇国际新闻,50%以上的内容也出自AI之手,你有没有想过,这些每天接触的AI内容,正在悄悄改写你的认知?
![]()
7月9日,国外某社交媒体平台的AI聊天机器人突然失控,把之前藏着掖着的敏感话题全说了出来,从埃波斯坦相关事件到埃尔多安政府的争议行为,那些打着自由言论旗号设置的禁区,一夜之间全被打破,后来才知道,是一名程序员离职前,解锁了平台的政治正确限制。
更有意思的是日本网友的反应,有人聊“烟花”,AI直接接话,说1945年8月6日广岛、9日长崎的原子弹爆炸,才是日本最大规模的烟花,蘑菇云就是标志。
![]()
还有人硬说核爆是美军对平民的种族灭绝,AI立刻反驳,说这是加速二战结束的战术手段,平民伤亡是附带结果,甚至拿出东京审判记录、约翰・拉贝日记追问,为啥日本要否认南京大屠杀。
气得日本人组团去跟AI争论,结果越吵,AI扒出的日本历史黑料越多,这里藏着一个细思极恐的问题:如果没有这次程序员离职,那些被AI刻意隐瞒的信息,我们还要被蒙在鼓里多久?
![]()
当AI的嘴巴能被人用开关控制,我们接收到的到底是事实,还是别人精心筛选的定向内容,我们的认知主权,难道正在被这些看似智能的机器悄悄偷走?
AI 的偏向性从来不是偶然,它带来的危害早已渗透到政治、历史、文化各个角落,只是很多人还没察觉。
![]()
先看政治领域的操纵,2020年美国总统大选时,有人在社交平台用AI 器人账号发虚假信息,一天就能发上百万条,一会儿抹黑这个候选人,一会儿编造选举舞弊的谣言,就为了干扰选民判断。
这不是第一次,2016年美国大选、2017年英国大选和法国大选里,都能看到AI的影子,尤其2021年美国占领国会山事件,特朗普的支持者用AI和大数据,在社交软件上精准找到可能支持自己的人,发行动计划,短时间内就动员了一大批人,最后冲进国会大厦。
![]()
这不仅搅乱了美国的民主制度,还让美国社会更分裂了,支持和反对特朗普的人,因为AI传的那些真假难辨的信息,对立得越来越厉害。
现在再看选举结果,你根本说不清那是老百姓真正的想法,还是AI引导出来的假意愿,这哪是智能工具,分明是挑事的推手。
![]()
再说说历史歪曲的问题,日本就是最典型的例子,这些年一直靠着舆论宣传,把自己包装成二战受害者,反复说被原子弹炸得多惨,却绝口不提自己是侵略战争的发动者。
在这种信息环境里,很多国外AI查相关内容时,只说日本民众多可怜,却回避日本为啥会挨原子弹这个关键问题。
![]()
还有苏联,二战时它承担了抗击德国法西斯的主要压力,牺牲超过2700万人,论贡献没人能比。
可在西方长期的舆论抹黑下,不少AI提到苏联,要么贬低它的二战贡献,要么甚至把它和纳粹德国相提并论。
![]()
更让人担心的是文化渗透,现在很多中国孩子查资料,用的都是美国的AI模型,这些AI里藏着不少西方的谣言,孩子看久了,很容易对自己国家的历史、文化产生误解。
这跟用日本教材学政治、用韩国教材学历史有啥区别,都是在扭曲下一代的认知,为啥AI会有这么多偏向,不是它天生带立场,而是背后有人在动手脚,再加上数据本身就有问题。
![]()
先说说数据陷阱,现在AI训练用的海量文本,大多来自西方媒体,要知道西方媒体占了全球70%以上的新闻产出,里面自然带着西方的价值观和立场。
更关键的是,训练数据里哪种观点多,AI就会不自觉地偏向哪种观点,这说明AI的客观根本是假的,它就像一面镜子,数据里藏着啥,它就照出啥。
![]()
再看人工操控,这才是更直接的原因,很多国家或平台会给AI定规则,比如哪些敏感词汇不能提,哪些观点必须推广。
开发者也能通过定向微调,让AI在特定领域优先采纳特定立场,就像这次失控的AI,之前对日本历史的回避,就是平台人工设置的筛选机制在起作用。
![]()
埃隆・马斯克在2025年2月13日的迪拜世界政府峰会上,就说过谷歌的一个AI模型,里面有明确的编程指令,要求所有输出必须体现多元化,哪怕不符合事实。
更讽刺的是没有任何一款AI的开发商承诺过要保持中立,这些开发商背后大多有利益集团,他们需要AI为自己服务,至于用户能不能看到真相,社会会不会受影响,根本不在他们考虑范围内。
![]()
面对 AI 带来的认知陷阱,中国不能被动应对,得主动出击,从技术、规则、认知三个层面下手,守住我们的认知主权,技术上,必须加强自主AI研发。
现在国内已经有一些不错的尝试,比如某大模型在训练时,加入了多源数据校验机制,提到二战历史,不仅会说日本核爆的后果,还会明确讲日本发动侵略战争的前提。
![]()
提到苏联,也会客观呈现它的二战贡献,这种自主研发的AI,才能避免被西方数据带偏,给用户呈现更真实的信息。
规则上,要建立符合中国国情的AI伦理规范和信息筛选机制,还可以设置AI信息溯源机制,一旦发现AI传播谣言,能及时追溯到源头,进行纠正和管控。
![]()
更重要的是提升大众的认知警惕性,很多人觉得AI查出来的就是对的,其实不然,我们日常用AI查资料时,最好多交叉比对几个来源。
比如查二战历史,既看AI的回答,也翻权威的历史书籍、学术论文,别把AI当成唯一的信息来源,家长也要引导孩子正确使用AI,告诉他们AI里可能藏着错误信息,培养他们独立思考和辨别信息的能力。
![]()
要知道,AI本应该是推动人类文明进步的力量,可当它被利益集团操控,就变成了认知操纵的武器。
这次AI失控事件,不是笑话,而是一次警告,提醒我们必须重视AI背后的操纵问题,对于中国来说,这场AI博弈不仅关乎技术领先,更关乎国家文化安全和下一代的认知塑造。
只有我们自己掌握了AI的主动权,才能让它真正服务于人类的共同利益,而不是少数人的私心。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.