![]()
Valerie Veatch拍纪录片前,以为Sora只是"不懂事的工具"。结果它没prompt就吐种族歧视图像,而AI圈的人居然觉得"正常"。
这不对劲。她顺着线头一拽,拽出了70年前的优生学遗产。
「人工智能」是营销话术,1956年就是
Veatch在视频通话里直接开骂:「想用『人工智能』这个词,得先搞懂它他妈什么意思。真相是——它啥意思都没有,从来都是营销术语。」
这词是John McCarthy 1956年造出来的,就为多骗点研究经费。Veatch觉得这种「故意模糊」延续至今:公司用科幻感包装统计模型,让用户以为机器真有「智能」。
但《Ghost in the Machine》挖得更深——问题不只是营销话术。
是这套技术从根上就被种族科学泡过。
生成式AI的三大「祖传bug」,个个有家谱
Veatch的纪录片列了张清单。不是技术缺陷,是历史债务:
① 训练数据的「代表性暴力」
模型吃的是什么?网络抓取的图像、文本、视频。而互联网内容早被结构性偏见腌制过几十年。Veatch发现,AI生成图像时,「医生」默认是白人男性,「罪犯」默认是黑人——没人告诉它这样,但它「学会」了。
更讽刺的是,当艺术家们试图用Sora创作时,这种偏见以「创意意外」的形式被合理化。Veatch的AI圈朋友对此无动于衷,甚至觉得「机器就这样」。
② 优化目标的「单一价值暴政」
生成式AI的核心逻辑是「预测下一个token(词元)」。Veatch指出,这种「最可能结果」的优化,本质是在强化统计 majority(多数派)。少数群体的表达、边缘化的视角,被系统性地压低概率。
1950-60年代的早期AI研究,直接 funded(资助)于军方和情报机构的需求——识别、分类、预测「异常」。这种「正常vs异常」的二元框架,和优生学的「适者vs不适者」共享同一套认知骨骼。
③ 黑箱机制的「责任逃逸」
Veatch最愤怒的是这点:公司把偏见输出包装成「技术中立」,用「算法复杂性」当挡箭牌。她拍片时发现,AI从业者自己常说不清楚模型为什么生成特定结果。
这种「故意不懂」让问责 impossible(不可能)。纪录片里有个细节:某AI公司PR(公关)被问到偏见问题时,循环使用「我们正在改进」——和1950年代优生学家被质疑时的回应格式一模一样。
加速主义者的「社会效益」承诺,Veatch为什么不买账
OpenAI们爱说:再等等,通用人工智能(AGI)会解决一切。Veatch把这叫「 hype cycle(炒作周期)的宗教化」——用未来赎罪券,卖现在的有毒产品。
她拍《Ghost in the Machine》就是要打断这个循环。不是反对技术,是反对「历史失忆」:每次发布会都假装这是全新发明,不提70年来种族科学如何塑造了「什么是值得预测的模式」。
有个场景她反复拍:早期计算机科学家在1956年达特茅斯会议上讨论「模拟人类学习」。同一时期,美国还在执行强制绝育计划。两个故事被分开讲授,但Veatch把它们剪在一起——共享的不仅是年代,还有「谁值得被优化」的底层逻辑。
给科技从业者的「解毒」建议
Veatch对25-40岁这代人的期待很具体:
第一,追问训练数据的「考古层」。不是问「数据量多大」,是问「谁被采样、谁被排除、标注者的偏见如何编码」。她建议用「数据谱系(data provenance)」工具追溯来源,现有开源方案已足够支撑。
第二,拒绝「技术中立」的舒适区。Veatch的原话:「说『机器就这样』是渎职。机器是人造的,每个『意外』偏见都有人为的决策链条。」
第三,警惕「生成」这个词的魅惑。她坚持在采访里用「预测性输出」替代「生成」——前者提醒用户这是统计重组,后者暗示某种创造性主体性。术语即政治。
Veatch的冷观察
采访最后我问她:拍完后还信AI能好吗?
她说还在用传统剪辑软件,「至少我知道每一刀是我切的,不是模型『预测』我该切哪」。
然后补了句:「而且我的软件不会突然给我生成一个穿三K党袍子的『创意选项』。」
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.