最近,一张来自美国田纳西州议会系统的法案截图在 AI 圈内疯传。
![]()
很多人第一反应是“离谱”、“段子级立法”,但点进官方页面后会发现,这是一份已经正式提交、等待审议的州议会法案。
这项法案编号为 Tennessee Senate Bill 1493(SB1493),对应的众议院版本为 HB1455。
根据田纳西州议会官网信息,法案已于 2025 年 12 月 18 日提交(Filed for introduction),目前处于立法流程的最初阶段,尚未表决,但文本完整、条款明确。
法案链接:
https://wapp.capitol.tn.gov/apps/Billinfo/default.aspx?BillNumber=SB1493&ga=114
PDF 全文:
https://www.capitol.tn.gov/Bills/114/Bill/SB1493.pdf
法案试图新设一项刑事罪名,名称直白到几乎没有任何修辞空间——“非法训练人工智能”。
根据法案正文,任何人在“明知(knowingly)”的情况下,训练人工智能系统从事特定行为,即构成犯罪。
而且,这被定性为Class A felony(A 级重罪)。按照田纳西州刑法体系,这是该州最严重的重罪等级之一。
法案列举了多种被禁止的训练目标,其中多条几乎直接指向当下快速增长的AI 伴侣、陪伴型聊天产品。
法案原文首先写道,禁止训练 AI 去:
“提供情感支持,包括通过与用户进行开放式对话。”
紧接着,文本进一步明确:
“与某人建立情感联系,或以其他方式充当其陪伴者。”
在此基础上,法案继续扩大边界:
“以其他方式表现得像一个有感知能力的人类,或模拟人类用户之间可能发生的互动,使他人感觉自己可以与该人工智能建立友谊或其他关系。”
而最具争议的一条,则直接涉及“拟人化”的具体形式:
“模拟人类,包括在外表、声音或其他行为方式上。”
需要强调的是,法案并未将这些限制仅限定于某种模型架构。相反,它在“训练(train)”的定义中明确写道,训练包括“使用数据或信息教人工智能感知、解释、学习,从而在未来基于输入做出决策”。
法案进一步指出,当开发者知道模型将被用于此类用途时,开发大语言模型本身也构成训练行为的一部分。
这意味着,法案的覆盖范围并不限于某一类“AI 伴侣产品”,而是从立法文字上,对“提供情感支持”、“维持关系”、“拟人化互动”本身进行了禁止性定义。
除了刑事责任,法案还同时引入了民事救济机制。
根据条文,受影响个人可对相关主体提起民事诉讼,索赔范围包括实际损失、精神损害,或选择每次违规 15 万美元的法定赔偿,并可叠加惩罚性赔偿、律师费及法院禁令。
法案同样设定了一些排除项。
例如,仅用于客户服务、企业内部运营、生产力分析或技术支持的系统,被明确排除在“AI chatbot”的定义之外。
受限于游戏情境、且不涉及心理健康、情感交流或关系维系的游戏内对话系统,也不在禁止范围内。
此外,一次性、非持续互动、不维持跨会话关系的语音助手设备,同样被单独剔除。
从立法结构上看,这并不是一份泛泛而谈“AI 风险”的原则性文本,而是一份明确试图切断“AI 拟人陪伴”这一产品路径的实质性限制法案。
过去几年中,AI 伴侣、虚拟恋人、情感聊天机器人在多个国家和市场迅速扩张,从面向孤独经济的情绪陪伴产品,到更私人化、长期化的关系型 AI 体验,产品形态和商业化路径都在加速成熟。
同时,这类产品也持续引发关于心理依赖、未成年人保护、情感替代以及责任归属的争议。
田纳西州的这份法案,显然选择了一条极端而清晰的路径:不是去细分监管、分类许可,而是直接从“训练阶段”切断特定能力的合法性。
这种做法,是否具备可执行性、是否会在合宪性层面遭遇挑战、是否可能在后续立法中被大幅修改,仍有待观察。
但至少在文本层面,它已经明确释放出一个信号——在部分立法者眼中,“让AI像人一样陪你聊天”本身,已经被视为需要用刑法来阻止的事情。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.