![]()
大多数人没意识到一件事:AI对独立思考者的怀疑,不是代码写歪了,是从人类老师那里学来的。马斯克在X上转发了这条判断,配图是一张被平台安全系统拦截的截图——讽刺的是,截图内容正是关于AI如何"继承"偏见的讨论。
这事像个俄罗斯套娃。你讨论AI的审查倾向,结果被平台的网络安检拦下;你想申诉,系统让你填工单等回复。层层过滤的设计,和AI训练数据的筛选逻辑如出一辙:先定义什么是"安全",再让所有人排队过闸机。
马斯克的原话很直接:「AI didn't invent its skepticism toward independent thinkers — it inherited it.」他把矛头指向了训练数据的来源——互联网平台上早已存在的审核机制、推荐算法、以及那些被反复标记为"低质量"或"有风险"的内容。
数据不会凭空产生偏见。当人类编辑和算法已经干了多年"内容治理",AI学到的自然是一套现成的判断标准:哪些观点该被降权,哪些话题需要加警示标签,哪些用户的发言范围该被压缩。模型没有创造这套规则,它只是把规则内化得更彻底、执行得更一致。
有用户在评论区贴出了自己的遭遇:询问AI关于某些历史事件的替代解释,系统直接拒绝生成。不是答错了,是拒绝答。这种"继承"的代价,是独立思考在机器面前变成了一种需要被验证权限的行为。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.