近年来,人工智能技术迅猛发展,深度融入各行各业,走进我们生活的每个角落。我们惊叹于AI带来的无限可能,也心生忧虑和迷茫。日前,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,聚焦AI时代的工具理性和伦理边界,规范人工智能科技活动治理,确保人工智能安全、可靠、可控。
打开电商平台,系统会依托用户浏览记录、消费偏好智能推荐适配商品,可背后也藏着过度采集数据、诱导非理性消费的问题;生成式人工智能能极大提升工作效率,但其内容真假难辨,一旦被滥用,就可能成为制造虚假信息、伪造诈骗素材的工具;职场招聘中,AI系统减轻了人事部门繁琐的工作量,可有些算法仅凭年龄、性别、毕业院校就给求职者贴“标签”,设置不合理的准入门槛……人工智能在给我们带来便利的同时,也带来一系列伦理问题。
人工智能本身没有自主意识,它的决策行为,都由背后的算法驱动。如果算法在设计时,没有融入公平、诚信、尊重他人等伦理准则,只追求效率、利益最大化,那么人工智能技术越先进,潜在的风险就越大。加之人工智能技术飞速迭代,一旦出现伦理问题,负面影响会迅速放大,不仅会损害个人合法权益,扰乱社会公共秩序,更可能让治理成本大幅增加,陷入技术治理中的“科林格里奇困境”。
让科技改变生活,不仅需要制度规范,而且要以制度为引,让技术向善而行。近年来,我国持续健全人工智能伦理治理制度体系,从顶层设计到专项监管,再到技术规范,不断完善制度链条。此次《办法》更是鼓励企业、高校与科研机构加大人工智能伦理治理技术研发和工具创新力度,推动技术实现自我规范、主动向善,从技术层面减少伦理风险隐患,不断促成“研发—应用—保护”的良性循环。
制度是底线,制度也是托举。守好伦理规范的同时,更要以良制善治为智能产业发展助力赋能。近日,黑龙江省印发《黑龙江省支持智能机器人产业发展若干政策措施》,围绕创新能力、产业集聚、场景应用、要素支撑等维度,提出了一系列具体措施。一方面,用好伦理的“导航仪”;另一方面,装上政策的“加速器”,人工智能才能行稳致远,更好服务人类社会。
说到底,人工智能的伦理底线,要靠每个人对“技术向善”的自觉坚守,离不开每一个参与者的道德自觉。科技发展的最终目的,是服务人类、让我们的生活变得更好。只有研发者、使用者把“尊重人的尊严”刻进算法设计的底层逻辑,人工智能才能真正发挥工具价值。
人工智能的发展应该以人类社会的稳定与福祉为前提。营造安全、有序、向善的人工智能发展生态,让技术真正造福社会、守护民生,既是我们的目标,也是全社会的共同期待。
黑龙江日报评论员:蔡佳航
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.