全球每天有超过50亿条搜索请求、数万亿次内容推荐,背后都站着一个被刻意隐藏的假设——机器没有立场。这个假设正在批量制造我们看不见的伤害。
「技术中立」是最成功的营销话术
我们从小被灌输一个画面:代码像数学公式一样纯净,数据像矿石一样客观。搜索引擎只是图书馆,社交推荐只是水管,信用评分只是计算器。出问题了?那肯定是数据脏了,跟设计它的人没关系。
这套叙事的美妙之处在于责任蒸发。Facebook可以把 polarization(极化内容)归咎于用户行为,Uber能把司机困境甩给市场供需,招聘平台可以说算法只是"反映现实"——仿佛这些系统是从石头缝里蹦出来的。
每行代码都是一次价值拍卖
举个具体的例子。2018年亚马逊被迫放弃一个内部招聘工具,因为它持续给女性工程师简历打低分。技术团队最初的辩解很典型:算法只是学习了历史数据,历史数据里男性工程师更多,所以结果"客观"反映了现实。
但设计这个系统时,有人决定了用"过去10年 hires"作为训练集,而不是"过去10年 applicants"。有人决定了把"包含女子学院"作为降权信号,而不是"包含体育特长"。有人决定了优化目标是"降低离职率"而非"提升团队多样性"。
这些不是技术决策,是价值观拍卖——而且拍卖会上只有工程师的声音。
数据不是矿石,是化石
原始内容里有个精准的判断:Every data set is a historical artifact(每个数据集都是历史文物)。翻译一下:数据里封存着过去谁被看见、谁被忽视的权力结构。
美国医疗算法曾系统性地低估黑人患者的健康风险,因为系统用"历史医疗支出"替代"实际病情"作为指标。历史支出低?那说明病情不重。但历史支出低的真实原因是黑人社区医疗资源匮乏。算法把结构性歧视编码进了未来。
更隐蔽的是推荐系统的"中立性"。YouTube的推荐引擎被设计为最大化观看时长,这个指标看起来人畜无害。但MIT媒体实验室的研究发现,极端内容天然更能留住注意力——于是系统学会了把用户往 rabbit hole(信息茧房)里推,而且推得越来越快。
没人写代码说"推荐阴谋论"。但有人写了代码说"优化 engagement(用户参与度)",然后假装不知道 engagement 和 outrage(愤怒情绪)的换算公式。
谁在写未来的操作系统?
全球市值前十的公司里,七家的核心资产是算法基础设施。它们正在以"中立平台"的身份,悄悄把特定的时间观、注意力分配方式、甚至人际关系模型,浇筑进几十亿人的日常。
这不是阴谋论,是架构问题。当你打开外卖软件,是"最近30分钟送达"优先,还是"骑手权益保障"优先?当短视频排序,是"完播率"权重高,还是"信息价值"权重高?每个默认选项都是一次立法,只是立法者从不露面。
原文抛出的问题值得贴在每个产品经理的工位上:whose values are being codified into the infrastructure of our future?
翻译过来就是:我们正在用谁的价值观,给下一代人编写操作系统的底层代码?
这个问题没有标准答案,但沉默本身就是答案的一种。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.