「如果AI由视野狭窄的团队打造,服务于狭窄的场景,结果必然狭隘。」这份来自开发者内部的自白,揭开了加拿大AI产业一个被长期回避的问题。
调查启动:一份让行业不安的报告
![]()
2025年12月,加拿大科技组织QueerTech联合Abacus Data完成了一项针对AI开发者的在线调查。100名来自加拿大AI产业的产品开发者参与了问卷,覆盖领导层、工程、产品、运营及负责任人工智能(Responsible AI)等岗位,涉及AI产品生命周期的多个阶段。
样本量虽小,但QueerTech强调受访者职能分布的多样性足以反映行业现状。调查结果于本周正式发布,题为《包容性人工智能开发研究报告》(Inclusive AI Development Research Report)。
核心发现令人警觉:仅不到半数AI开发者认为其产品满足了性少数群体(LGBTQ+)用户的需求,相比之下,65%的开发者认为产品满足了普通大众的需求。这一差距本身已说明问题,但更刺眼的数字还在后面。
数据背后的盲区:五分之一开发者「从未考虑」
近20%的加拿大AI开发者表示,他们在工作中从未遇到过任何与性少数群体相关的安全考量。这不是「考虑过但觉得不重要」,而是字面意义上的「从未出现在雷达上」。
这一发现指向一个结构性盲区:当开发团队的构成、测试用户的选取、产品场景的定义都围绕主流人群展开时,性少数群体的需求自然被系统性地排除在设计流程之外。
问卷中关于「如何在AI系统中处理非二元性别(non-binary)表征」的开放题,收到的回复从漠不关心的「为什么要做这个?」到充满敌意的「不在我们的优先级列表上,听起来像是DEI(多元、公平与包容)觉醒公司的噩梦」。QueerTech在报告中直接引用了这些原话。
更具冲击力的是:11%的提交回复在语气上表现出对性少数群体的恐同、恐跨或普遍仇恨倾向。这不是中性的技术判断,而是明确的偏见表达。
恶意与无知:危险的两面
上周在渥太华举行的高级小组讨论会上,QueerTech联合创始人兼CEO纳乌费尔·泰斯塔乌尼(Naoufel Testaouni)对数据做了更细致的拆解。他估计约一半的问题回复可归因于无知——开发者确实缺乏相关认知,但存在教育空间;另一半则属于恶意。
「那些恶意回复才是危险所在,」泰斯塔乌尼说,「这些人正在建造这些技术。如果这就是他们的想法,而且敢在调查中公开这么写,那么想想周围那些我们根本听不到声音的其他开发者,他们又是怎么想的?」
这一判断将问题从「知识缺口」升级为「人员风险」。当持明确偏见的个体身处关键的技术决策位置,其影响不会停留在言论层面,而是通过数据标注、特征工程、模型调优等环节渗透进产品。
现实代价:招聘歧视已发生
报告发布前的2025年11月,QueerTech举办了一场行业活动。BetaKit在现场从人力资源和招聘专业人士处获悉,科技行业的求职者已因简历上的代词使用或呈现的性别信息而遭受歧视。
这不是假设性的未来风险,而是正在发生的职场排斥。AI系统若在简历筛选、人才匹配、绩效评估等场景中存在性别偏见,将成为歧视的放大器而非纠正者。
当开发者对「非二元性别表征」的第一反应是「为什么要做」,其产品在实际应用中区别对待非常规性别表达的用户,几乎是可以预期的结果。
政策回应:AI部长的双重表态
小组讨论会前的主题演讲中,加拿大AI部长埃文·所罗门(Evan Solomon)直接回应了报告发现。他将包容性定义为「不是我们在文化战争中随意抛掷的词汇」,并主张多元视角的参与才能产生可信且「积极」的技术。
所罗门重复了泰斯塔乌尼的核心观点:「如果AI由视野狭窄的团队打造,服务于狭窄的场景,由经历狭窄的人设计,结果必然狭隘。」
他还呼应了泰斯塔乌尼关于技术圈毒性的观察:「人们用『科技兄弟』(tech bro)这个词是有原因的。」所罗门的这句话未在原文中完整呈现,但方向明确——行业文化本身已成为包容性的障碍。
产品视角:被忽视的用例就是市场缺口
从产品开发逻辑看,这份报告揭示了一个悖论:AI行业高歌猛进地追求「通用人工智能」,却在基础的用户覆盖上存在系统性盲区。
近20%开发者「从未考虑」性少数安全议题,意味着相关需求从未进入用户研究、场景定义、测试验证的标准流程。这不是技术能力的限制,而是组织流程的缺失。
更深层的问题在于反馈闭环的断裂。当性少数用户遭遇产品中的性别偏见,他们是否有渠道报告?报告后是否有人处理?处理结果是否回流到产品迭代?从开发者的高比例「无知」状态推断,这一闭环大概率不存在。
泰斯塔乌尼所说的「恶意」开发者则指向另一个维度:当团队内部存在对包容性倡议的公开敌视,相关功能的优先级会被主动压低,资源会被系统性地转移。这不是疏忽,是结构性的排斥。
行业启示:谁在为「边缘」用户负责
报告的数据采集时间为2025年12月,发布于本周,讨论的是加拿大市场。但问题模式具有普遍性:AI产品的「通用性」宣称与实际覆盖范围之间的落差,在全球各市场都存在。
对于25-40岁的科技从业者,这份报告的价值在于提供了一个内部视角的验证。我们时常讨论算法的公平性、数据的偏见,但很少有机会看到开发者群体的自我评估——以及其中相当比例的自我坦白的盲区。
65%对「普通大众」需求的满足率,与不足50%对性少数群体的满足率,这两个数字的对比本身构成了一种产品诊断。它提示我们:「大众」是一个被默认建构的类别,其边界由谁划定、排除谁,是技术决策中最隐蔽的权力行使。
所罗门部长将包容性排除在「文化战争」修辞之外,试图将其重新定义为技术可信度的基础。这一框架转换值得关注:当包容性被当作道德倡议时,它容易被边缘化为「政治正确」;当它被重新定义为产品质量和信任度的决定因素时,它进入了产品经理的核心关切范围。
泰斯塔乌尼的警告同样适用于产品团队的风险评估:如果公开的恶意已经占到11%,未被记录的比例可能更高。这意味着偏见不是外部批评者强加的指控,而是内部人员主动确认的存在。
对于正在构建AI产品的团队,这份报告提供了一个检查清单:用户研究样本是否覆盖了性别多元群体?测试场景是否包含非二元性别的交互路径?反馈机制是否能捕捉到与性别相关的使用障碍?团队内部是否存在对包容性工作的公开敌视?
这些问题的答案,决定了产品最终服务的是「被默认的主流用户」,还是真实的用户多样性。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.