![]()
AI技术正以令人眩目的速度改变着我们的生活。与此前的技术革命——广播、核裂变或互联网不同,政府并未在这一轮变革中发挥主导作用。我们知道AI可能带来危险:聊天机器人可能向青少年提供自杀建议,甚至很快就能指导如何制造生物武器。然而,目前还没有类似美国食品药品监督管理局的机构,在新模型公开发布前对其安全性进行测试。与核工业不同,企业往往不需要披露危险的违规行为或事故。科技行业强大的游说力量、华盛顿的极化瘫痪,以及这种强大、快速发展技术的复杂性,都让联邦监管望而却步。欧洲官员也面临着对监管规则的反对,有人声称这些规则削弱了欧洲大陆的竞争力。尽管美国几个州正在试行AI法律,但它们只是零散的尝试,特朗普还试图使这些法律无效。
像OpenAI的ChatGPT和谷歌的Gemini等AI平台负责人表示他们关心安全问题。但要拥有AI的未来,就意味着要向连创造者都不完全理解的模型投入数十亿美元,并做出诸如添加广告等选择——以及五角大楼现在向Anthropic寻求的能力——这些都会增加风险。Anthropic自称是最有良心的前沿AI公司,表示其模型经过训练,能够"想象一位深思熟虑的Anthropic高级员工"如何在帮助性和可能的危害之间进行权衡。这一指令呼应了多年前对硅谷公司的批评——这些公司在封闭的董事会议室中塑造着全球用户的生活。消费者不相信他们处于安全的掌控之中。去年接受调查的美国人中,完全有77%的人认为AI可能对人类构成威胁。
我们并非陷入了稳健政府监管的遥遥无期希望与让历史上最强大的公司自我监管之间的困境。至少在立法者采取行动之前,独立监督提供了在AI潜力与风险之间进行仲裁的可能性。通过拥抱独立监督,AI公司可以证明他们对公众信任足够重视,愿意为此而努力。
独立监督背后的逻辑很直接。无论企业高管的初衷多么良好,他们对股东和投资者的职责都会影响他们在成本和安全之间进行权衡的方式,激励收入和利润。虽然对企业声誉、客户忠诚度和道德的长期考虑可能起到减速带的作用,但赢得AI竞赛需要承担风险的勇气。社交媒体如何煽动杀戮、影响选举和损害青少年心理健康的迟来清算,说明了技术的醉人力量如何掩盖闪烁的警告信号。
AI的独立监督提供了发现、分析和解决其风险的潜力,给倡导者和社区更多控制这些技术如何重塑社会的机会。社交媒体提供了一个例子。2020年,因被指责助长了缅甸的罗兴亚危机而饱受批评的Meta(当时叫Facebook)创建了一个监督委员会,希望让公司摆脱困境。次年初,公司采纳了承诺遵守人权法的政策。虽然这个现已五岁的委员会未能达到一些人希望的"Facebook最高法院"的期望,但其记录为AI有效独立监督的前景提供了关键教训,并说明了其重要性。
监督需要多元化的视角。与其他前沿AI公司一样,Meta在每个有人居住的大陆都有用户。在门洛帕克园区的安全环境中决定他们能发布什么、不能发布什么,留下了盲点并激起了怨恨。监督委员会的21名成员为敏感内容审核问题的裁决带来了广泛的文化和专业专长(比如暴力视频应该作为新闻分享还是作为对受害者尊严的冒犯而删除)。委员会成员曾在27个以上国家生活过,包括保守派和自由派、记者、法律学者、丹麦前首相和诺贝尔和平奖获得者。
监督委员会使用Meta自己的"社区标准"来评估帖子是否违反了包括禁止欺凌或支持恐怖主义在内的规则。委员会要求Meta履行其维护国际人权法的承诺,包括《公民权利和政治权利国际公约》第19条,该条款确立了表达自由。AI公司应该做出同样的承诺,并建立监督机制来约束他们。与美国的第一修正案或欧盟的网上"被遗忘权"不同,人权法提供了跨越边界的共同标准。其规范提供了指导AI决策的推理方法,比如机器人拒绝回答问题是否不当地剥夺了用户的信息权,或者用户数据的再利用是否违反了隐私权。
可及性、咨询和透明度是关键。监督委员会接受公众申诉,宣布其选择审查的案例,邀请公众评论,并与专家和相关社区召开会议。它已发布了200多项详细书面意见的决定,这些决定被世界各地的法院引用。
自愿监督机构的力量只能与其创建公司赋予它的权力一样强大。虽然监督委员会希望获得更广泛的权力,但它赞扬Meta远远超越了其他科技公司定期召开和解散的轻量级咨询委员会。Meta监督委员会有权决定特定内容是保留还是删除,尽管在个别帖子上使用这一权力可能感觉像是通过吹灭余烬来对抗野火。其更重要的影响在于选择错误内容的典型案例,为决策提供公开推理,并发布Meta必须回应的建议。据12月报告,Meta已实施了委员会300多项建议中的75%,为数十亿用户带来了重大变化。
这些变化包括:在内容消失时提供用户据称违反了哪项政策的通知,确保修辞嘲讽和讽刺不被作为威胁删除,以及确保公司在自然灾害和武装冲突等危机中投入大量资源。委员会还就更大的政策问题发布详细的咨询意见,比如Meta对知名发布者违反政策的宽松处理,或者随着疫情消退应该删除多少与新冠相关的错误信息。尽管委员会在做出决定和建议时独立运作,但它依赖Meta提供关键信息,比如特定内容决定是由人类还是自动化做出的,以及内容被错误删除时具体出了什么问题。AI公司必须提供至少同样多的透明度,监督才有任何意义。
一如既往,资金很重要。Meta定期将监督委员会的资金放入信托基金,这样就不会一夜之间被切断。但更多元化和有保障的资源将增强委员会的独立性。监督尖端技术需要花钱。它需要资金支持专家员工进行分析和决策,以及带来特定文化和语言专长的顾问。然而,考虑到对AI投资的数千亿美元,即使是强有力的监督成本也微不足道。
AI正在接管我们的教室、学院和企业。独立监督是AI公司至少能做的事情,以确保无论有意还是无意,它们不会同时接管我们的权利。
Q&A
Q1:为什么AI需要独立监督而不能依靠政府监管?
A:AI技术发展速度极快,政府监管跟不上步伐。科技行业强大的游说力量、华盛顿的政治极化以及AI技术的复杂性都让联邦监管难以实施。目前还没有类似食品药品监督管理局的机构对AI模型进行安全测试,企业也不需要披露危险事故。
Q2:Meta监督委员会是如何运作的?
A:Meta监督委员会由21名来自27个国家的多元化成员组成,包括保守派、自由派、记者、法律学者等。委员会接受公众申诉,审查争议内容,使用Meta的社区标准和国际人权法进行裁决,并发布详细的书面决定和政策建议。
Q3:AI公司建立独立监督有什么好处?
A:独立监督可以帮助AI公司发现、分析和解决技术风险,增强公众信任。它提供多元化视角来审查AI决策,确保技术发展符合人权标准,并给社区更多控制权来影响AI如何重塑社会,避免重蹈社交媒体的覆辙。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.