澎湃首席评论员 与归
5月4日,# 豆包付费 # 的话题登上微博热搜榜首。5月5日,“用豆包搜索黎元洪,给出演员范伟的相关PS图片”的话题又登上热搜。
将两个新闻“连连看”,不少网友的脑海里“生成”了一个疑问:既然后续要收费了,那么AI大模型是否要对生成结果负责?如果用户花了钱,还得到错误的答案,那么能算公平交易吗?
不只是豆包,可以预见的是,在盈利压力下,接下来很多AI应用都将收费。那么在新的前提下,用户预期和体验将完全不是一回事。以前AI闹出笑话,因为处于免费使用的初级阶段,很多时候人们只是笑一笑,没太当真,也就过去了。但是收费后,用户天然会觉得,我既然花了钱,就要购买到足够“值价”的服务。
这显然会带来消费者权益、商业伦理、责任归属等诸多方面的挑战。相关企业还是要未雨绸缪,努力查补漏洞,构建更加公平、透明、健康的AI生态。
一个最直接的观感是,目前的AI应用还会出现一些低级错误。比如“搜黎元洪出来范伟”这种错误,就是二十年前的搜索引擎也基本不会犯。简单的信息检索作为最基本的功能,如今的AI理应比以往的搜索引擎更便捷、准确,这事关AI的口碑和尊严。
此外,还有比基础错误更难辨别的“AI幻觉”。前段时间,杭州互联网法院审结了全国首例生成式人工智能“幻觉”侵权纠纷案:原告梁某使用一款AI平台查询高校报考信息,结果AI生成了该高校主校区的不准确信息。该模型还信誓旦旦地“表示”:若您证明校区不存在,我将赔偿您10万元信息鉴定费。
虽然后来法院审理认为,人工智能不具有民事主体资格,不能作出具有法律约束力的意思表示,驳回原告的诉讼请求。但“AI出错后,谁来负责”的疑问,依然飘荡在各大AI企业头顶。几乎可以预见,这样的案例还会出现,还将引发更多争议。
未来,生成式人工智能服务提供者,可能不仅要履行服务功能的显著提示说明义务,还应尽到信息可靠性的基本保障义务。结合今年3·15期间“AI语料投毒”的热议,一个可能并不算多虑的叩问是:该如何避免搜索引擎时代的“魏则西事件”,在AI大模型时代发生?
更何况,还有绕不过去的版权问题。近期7家财经媒体宣布,未经书面许可,不得将本单位原创内容用于机器学习、数据挖掘、大模型训练、文字转音视频等人工智能应用场景。这是内容生产机构开始对“AI 免费抓取”说不。
当然,有些问题也不是单靠AI企业就能完成的。比如,构建跨机构的数据协同机制,或是打造权威性的公共数据平台,就需要实现机构信息、政府公开数据、学术科研数据等数据共享。
去年9月,国家发改委在《人民日报》发文称,“强化人工智能发展的要素支撑。加快高质量语料库和行业数据集建设,完善数据产权和版权、收益分配等制度,加强数据供给创新。”目前一些地方已经在探索建设国家语料库,其目的就是为大模型训练提供易获取、高质量、规模化、低成本的语料资源。
AI技术的发展及其应用,永远会产生问题,有问题并不可怕,但要始终有问题意识。只有尽量将各种不足和隐患考虑在前,将解决办法或者应对策略前置,才能做到从从容容开拓市场、服务大众生活。
直白一点说,在AI大规模收费之前,或许应该“打扫干净屋子再请客”。
本 期 编 辑 邢潭
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.