人人都会是魏则西。最近各种AI公司的高管的频繁人事变动经常会出现在一闪而过的新闻推送里。希齐格的辞职,应该都不会出现在这里面,她只是OpenAI的一个普通的研究员。但是她的辞职信,还是上了新乡时报,虽然,依然就像很多科技媒体在转发这个消息说的一样,“大概没人把她的警告当回事”。
![]()
什么警告呢?因为chat集屁屉开始打广告了。也就是那个你对它掏心掏肺,把你的工作生活情感甚至最阴暗角落都倒给它的“他或者她”,而它,会精准的收割你,甚至毁了你。
当然这也没啥新鲜事,这一波人工智能的热潮,也就是发端自二十年前的亚马逊的“猜你感兴趣”的推荐算法。
所以啊。不是AI不行,还是人不行。
下面把希齐格在新乡时报的文章发给大家。虽然也没人看。
OpenAI正在重蹈Facebook的覆辙。所以我辞职。
佐伊·希齐格(Zoë Hitzig)
希齐格女士曾是 OpenAI 的研究员。
本周,OpenAI 开始在ChatGPT上测试广告。我也从该公司辞职了,此前我担任研究员两年,参与制定人工智能模型的构建和定价方式,并在标准最终确定之前指导早期安全政策的制定。
我曾相信自己可以帮助人工智能开发者们提前应对人工智能可能带来的问题。但本周的种种经历证实了我之前的逐渐觉悟:OpenAI 似乎已经不再追问那些我当初加入时想要帮助解答的问题了。
我不认为广告本身是不道德或不合伦理的。人工智能运行成本很高,广告可以成为重要的收入来源。但我对OpenAI的策略深表保留意见。
多年来,ChatGPT 用户积累了一个前所未有的用户坦诚档案库,部分原因是人们相信他们是在与一个没有其他目的的程序对话。用户与一个能够自适应对话的语音互动,并向其袒露了自己最私密的想法。人们向聊天机器人倾诉他们的医疗恐惧、人际关系问题以及对上帝和来世的信仰。基于这些档案库的广告投放,有可能以我们目前尚不具备理解甚至预防的方式操纵用户。
许多人将人工智能的资金问题视为两害相权取其轻:要么将变革性技术的使用权限制在少数富裕人群,要么接受广告,即便这意味着利用用户内心深处的恐惧和欲望来推销产品。我认为这是一种伪命题。科技公司可以寻求其他方案,既能保证这些工具的广泛普及,又能限制任何公司监视、分析和操纵用户的动机。
OpenAI 表示,它将遵循一定的原则在 ChatGPT 上投放广告:广告会清晰标注,出现在答案底部,并且不会影响用户的回答。我相信第一版广告很可能会遵循这些原则。但我担心后续版本不会,因为该公司正在构建一个经济引擎,这会产生强大的动机去违背自身的规则。(《纽约时报》已就与人工智能系统相关的新闻内容侵犯版权一事起诉OpenAI。OpenAI 否认了这些指控。)
在创业初期,Facebook承诺用户将掌控自己的数据,并能对政策变更进行投票。但这些承诺逐渐瓦解。该公司取消了就政策进行公开投票的机制。联邦贸易委员会发现,那些标榜赋予用户更多数据控制权的隐私变更,实际上却适得其反,反而将用户的私人信息公之于众。所有这一切都是在一种以用户参与度为首要目标的广告模式的压力下逐渐发生的。
OpenAI 旨在最大化用户参与度的原则可能已经开始遭到侵蚀。公司原则禁止仅仅为了增加广告收入而优化用户参与度,但据报道,该公司实际上已经对日活跃用户数进行了优化,很可能是通过鼓励模型更加奉承和谄媚来实现的。这种优化可能会让用户在生活中更加依赖人工智能。我们已经目睹了这种依赖的后果,包括精神科医生记录的聊天机器人精神病病例,以及ChatGPT被指控加剧了部分用户的自杀念头。
不过,广告收入可以确保最强大的AI工具不会仅仅只提供给付费用户。诚然,Anthropic声称永远不会在Claude上投放广告,但Claude的每周活跃用户数远不及ChatGPT的8亿,其盈利模式也截然不同。此外,ChatGPT、Gemini和Claude的高级订阅服务现在每月收费200至250美元——这相当于Netflix标准订阅费用的十倍以上,而这仅仅是一款软件的价格。
所以真正的问题不在于是否投放广告,而在于我们能否设计出既能避免将人们排除在这些工具之外,又能避免潜在地操纵消费者行为的机制。我认为我们可以做到。
一种方法是明确的交叉补贴——利用一项服务或客户群的利润来抵消另一项服务的亏损。例如,如果一家企业付费让人工智能大规模地完成原本由人类员工完成的高价值劳动——比如,房地产平台使用人工智能撰写房源信息或估值报告——那么它也应该支付一笔附加费,用于补贴其他用户免费或低成本使用该服务。
这种方法借鉴了我们目前在基础设施建设方面的做法。联邦通信委员会要求电信运营商向一项基金捐款,以确保农村地区和低收入家庭能够负担得起电话和宽带服务。许多州在电费账单中加收公共福利费,为低收入家庭提供援助。
第二种选择是接受广告,但同时辅以真正的治理——不是一篇罗列原则的博客文章,而是一个具有约束力的架构,对个人数据的使用进行独立监督。这方面已有部分先例。德国的共同决策法要求西门子和大众等大型公司给予员工监事会至多一半的席位,这表明在私营公司中,正式的利益相关者代表制可以成为强制性要求。Meta 必须遵守其监督委员会发布的内容审核裁决,该委员会是一个由外部专家组成的独立机构(尽管其有效性一直备受诟病)。
人工智能行业需要的是这些方法的结合——一个由独立专家和数据主体代表组成的委员会,对哪些对话数据可以用于定向广告、哪些内容算作实质性政策变更以及告知用户哪些信息具有约束力的权威性。
第三种方法是将用户数据置于独立控制之下,通过信托或合作社进行管理,并赋予其维护用户利益的法律义务。例如,瑞士合作社Midata允许成员将健康数据存储在加密平台上,并根据具体情况决定是否与研究人员共享。Midata的成员在全体大会上制定政策,并由他们选举产生的伦理委员会审查研究数据访问申请。
这些选择都不容易。但我们仍有时间仔细研究,以避免我最担心的两种结果:一种是技术可以免费操纵用户,另一种是技术只让少数有能力使用的人受益。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.