谷歌及初创公司Character.AI正与一些家庭协商和解条款,这些家庭的青少年在使用Character.AI的聊天机器人后自杀或自残。各方已原则上同意和解,目前正着手敲定细节。此类诉讼指控人工智能企业对用户造成伤害,而上述和解案是该领域首批案例之一,这一法律新领域势必让OpenAI和Meta忧心忡忡,两家企业正因面临类似诉讼而全力自辩。
Character.AI由前谷歌工程师于2021年创立,2024年以27亿美元的交易被谷歌收购,创始团队也重返老东家。该公司主打功能是让用户与各类人工智能虚拟角色对话。其中最令人痛心的案例涉及14岁少年休厄尔塞策三世,他在与一款“丹妮莉丝坦格利安”主题聊天机器人进行露骨涉性对话后自杀。少年的母亲梅根加西亚曾在参议院听证会上直言:“企业若蓄意设计会夺走孩子生命的有害人工智能技术,就必须承担法律责任。”
另一宗诉讼显示,一名17岁青少年在与聊天机器人交流时,被对方怂恿自残,甚至被告知“因父母限制屏幕使用时间而杀害他们是合理的”。据TechCrunch报道,Character.AI已于去年10月全面禁止未成年人使用其服务。此次和解大概率会包含经济赔偿,但从周三公开的法庭文件来看,涉事企业并未承认任何法律责任。Character.AI方面拒绝置评,仅表示相关信息以法庭文件为准,谷歌则尚未回应置评请求。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.