![]()
1.44亿日活用户,超过一半正在经历同一件事:对着摄像头让算法猜自己几岁。Roblox(罗布乐思)的安全主管Matt Kaufman向BBC确认,这套包含面部分析的AI年龄估算系统已覆盖数千万人,误差"正负1.4年左右"。但家长们发现,这个精度对13岁和14岁的边界来说,足够让一个孩子突然被扔进成人池。
这套系统的运作逻辑很简单:猜错年龄,直接改变你能看到什么、能跟谁说话、甚至账号叫什么名字。
Roblox正在把原有的年龄验证扩展成完整的账户分层体系——Roblox Kids(儿童版)和Roblox Select(精选版)。没完成验证的用户会被锁死在儿童内容里,禁止任何通讯功能。完成验证的,则由算法分配的"估计年龄"决定权限边界。Kaufman的解释很直接:让用户自己报年龄,"他们会为了 access 随便填"。
但BBC采访的多位家长反馈,系统存在明显的"年龄高估"现象。有孩子被识别为成年人后,家长端的管控选项直接缩水。一位母亲描述,她14岁的女儿在平台上被一名18岁男子诱导发送了私密照片,而这件事发生在Roblox宣称"已加强保护"的同一周。
从"验证你是人"到"猜测你几岁",Roblox的安全策略换了底层代码
Roblox的年龄验证最早是为了解锁聊天功能。用户必须通过验证才能使用通讯工具,系统据此把人分到不同的年龄池,限制跨年龄段的接触。官方说法是降低" grooming(诱导操控)"风险。
现在的升级把这个逻辑推到了账户层面。Kaufman透露,决定哪些内容对16岁以下用户开放时,Roblox会综合多个信号:游戏在平台上线的时长、开发者的历史行为、使用模式等等。那些带有社交属性或自由创造元素的游戏,不会默认出现在Kids和Select账户里。
开发者群体对此反应分裂。Roblox自称有超过200万内容创作者,其中一位向BBC表示,家长应该持续监控孩子在平台上的活动。Kaufman的回应则停在半截——他说"把责任推给某一位开发者是不负责任的",后半句没说完,但意思很清楚:200万人的生态,没法逐个筛查。
技术层面,Roblox的年龄估算依赖面部分析,但公司没有公布儿童被误判为成年人的具体比例。Kaufman只强调了"比自报年龄可靠",却没回应误差在临界年龄带的实际影响。对一个13岁零1个月的孩子,+1.4年的误差意味着系统可能认定其已满14岁,从而开放更高权限的内容池。
家长的控制权,正在从"设置选项"变成"申诉流程"
多位家长向BBC反映的核心痛点是:当算法高估孩子年龄时,他们失去了原本可用的管控工具。Roblox的家长控制面板会根据账户类型动态调整选项,而账户类型由AI判定。这意味着纠错成本从"点几下设置"变成了"联系客服、提交证明、等待复核"。
Kaufman在采访中的辩护集中在技术可靠性上,但对误判后的补救机制语焉不详。他提到系统"通常"误差在1.4年内,却没说"通常"之外的案例怎么处理。对于那部分被"催熟"到成人池的未成年人,平台似乎默认家长会发现并申诉——但发现本身就需要家长持续深度介入孩子的屏幕活动。
这种设计把安全责任的一部分悄悄转移给了家庭。Roblox有200万开发者、1.44亿日活、数千万人每天刷脸验年龄,但最终的纠错阀,落在了家长能否及时注意到孩子的账户类型变化。
![]()
内容分级的手,从人工审核变成了"开发者历史+用户行为"的算法评分
Roblox对16岁以下用户的内容过滤机制也值得拆解。Kaufman提到的信号包括游戏上线时长、开发者历史、使用模式——这实际上是一套声誉系统,而非内容本身的逐条审核。新游戏、新开发者、或者行为模式异常的创作者,会被算法标记为更高风险。
这种机制的优势是规模。200万开发者、数千万游戏内容,人工审核不现实。但代价是"社交"和"自由创造"被默认视为风险元素,直接从儿童版下架。Roblox的Kids账户会看到一个更干净、也更单调的版本:预设内容、禁止通讯、创造性玩法受限。
一位开发者的担忧由此而来:如果平台默认把开放创造视为安全隐患,长期会不会挤压这类内容的空间?Kaufman的回应是区分平台责任与个人责任,但200万开发者中,有多少人能承担得起"被算法误伤"后的申诉成本,他同样没有回答。
更微妙的问题在于,Roblox的年龄系统正在重新定义"儿童"和"青少年"的边界。传统上,13岁是COPPA(美国儿童在线隐私保护法)的关键分界线,平台据此区分儿童账户和青少年账户。但Roblox的AI估算输出的是连续数值,系统必须把这个数值映射到离散的年龄池里。Kaufman说的"正负1.4年",在13岁这个节点上,意味着算法有相当概率把孩子推到下一个权限层级。
公司没有公布这种"临界跨越"的发生频率,也没有说明家长如何主动获知孩子的算法年龄认定。从家长反馈来看,很多人是在发现管控选项变少之后,才意识到系统"觉得"自己的孩子更大了。
安全与便利的交换,正在变成一场信息不对称的博弈
Roblox的扩张逻辑很清晰:用技术手段替代用户自报,用算法分层替代统一标准,用开发者声誉系统替代内容逐审。每一步都是为了规模,但每一步也都引入了新的信息不对称。
家长不知道孩子的算法年龄认定,除非主动检查;不知道哪些内容被过滤,除非对比不同账户的界面;不知道误判如何纠正,除非走到申诉那一步。Kaufman强调技术比自报可靠,但可靠不等于透明。一个"更准"但"更不透明"的系统,对需要做出判断的家长来说,未必是更好的工具。
那名14岁女孩的母亲在事件后公开质疑平台保护力度,Roblox的回应是强调已投入的安全措施。但措施的存在与措施的有效性之间,隔着算法黑箱、误判概率、以及家庭与平台之间的信息落差。
Roblox Kids和Select的推出,本质上是把"保护儿童"从一道开关变成了多级滑杆。滑杆的位置由AI估算,家长只能在事后调整。对于1.44亿用户中的大多数,这套系统正在默默运行——猜年龄、分账户、限内容——而误差范围内的每一个误判,都可能让某个孩子提前进入本不该开放的数字空间。
Kaufman在采访中留下了一个未完成的句子。他说把安全责任推给某一位开发者是不负责任的,但也没有说责任应该落在哪里。是算法?平台?还是那些需要不断检查孩子账户类型、不断申诉误判、不断在200万开发者和数千万内容中试图辨别风险的家庭?
当超过一半的用户每天刷脸让算法猜年龄时,Roblox或许需要回答:如果AI把一个孩子"催熟"了,谁来负责把年龄调回去——以及,家长怎么知道这件事发生了?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.