本文转自:人民网
人民网北京4月29日电 (记者郝孟佳)近日,“生成式人工智能治理”专题学术研讨会在中国人民大学举行。与会嘉宾围绕生成式人工智能的政策监管、技术评测、内容安全、科研规范、人智交互和行业应用等议题展开深入讨论。
中国人民大学公共管理学院教授刘鹏指出,生成式人工智能“只是算法应用的一个场景”,监管不能只看原则,更要看目标、工具和主体的匹配。算法影响评估、算法审计、信息披露与备案追溯等工具,应成为风险治理的基础。
在全球人工智能政策的比较研究中,中国人民大学新闻学院教授卢家银发现,当前政策格局总体呈现“强国家、重市场、弱社会”的特征,伦理价值与社会公平尚未得到足够重视。他认为,生成式人工智能治理应在发展与安全之外,更加注重社会权利,构建更为均衡的制度组合。
对外经济贸易大学国际经贸学院副教授金悦指出,在人智交互与消费场景中,电商AI标签能够保障用户的知情权,但“并没有解决消费者的信任问题”。她表示,平台治理仍需依靠高质量用户评论等补偿性信息机制加以补充。
北京科技大学经济管理学院副教授傅诗轩以文旅和博物馆场景为例,提出文化遗产可以通过数字化、智能化技术实现新的解构与重塑。但她同时提醒,AI在助力文化表达的过程中,需防范错误表达、文化偏见及历史厚重感的流失,应将技术识别、人工校正与人机协作纳入内容开发的全过程。
中国人民大学法学院副教授彭雅丽将大模型置于跨文化伦理情境中进行考察,指出模型能否适应当地社会的文化规范与价值观,直接关系到其是否会成为“文化冲突和安全隐患的来源”。彭雅丽基于关怀范围、决策主体、变革取向等维度对模型输出进行评测,强调治理不仅要关注模型是否可用、可控,还要追问其价值来源、文化偏向及校正机制。
中国人民大学信息学院教授杨波认为,治理并非简单禁用AI,而在于明确“决策权交给谁,责任由谁承担”。在鼓励合理使用AI的同时,应坚守原创性、真实性与文责自负的底线。
据悉,本次会议由中国人民大学人工智能治理研究院主办。中国人民大学交叉科学研究院、新时代智慧治理学科交叉中心、信息学院、新闻学院、书院建设与管理中心协办。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.