网易首页 > 网易号 > 正文 申请入驻

ICU昏迷不醒,AI判决生死!取意愿平均值,细思极恐

0
分享至


新智元报道

编辑:倾倾

【新智元导读】当医生按下Enter键,AI就能决定人的生死!美国华盛顿大学,一项名为「AI代理人」的研究,试图让算法预测昏迷患者的生死意愿。支持者说这是医疗新纪元,反对者担心它只是复制偏见的机器。当AI学会理解生命,人类的怜悯、犹豫与责任,会不会被一串数据取代?

医生还没开口,AI已经替你决定好了——

根据模型预测,该患者倾向于放弃抢救。

这不是电影的剧本,而是美国华盛顿大学正在进行的一项真实研究。

当患者陷入昏迷、无法发声的时候,AI将替他向医生传达是否接受抢救的医院。

实验中,研究人员将其称之为「AI代理人」(AI surrogates)。


这听上去像一场科技的人道主义实验:在生死交界处,让算法解读人类的意愿。

可问题是AI真懂吗?还是它仅仅理解那些与患者相似的数据?

在这个系统的底层,算法并没有「聆听灵魂」,它只是浏览历史病历、人口学特征、医疗选择模式,然后推断:与你相似的人通常如何抉择。

于是,人类的意愿被模型化,个体生命的价值被平均化。

当AI开始预测生死,它做出的已不再是技术判断,反而成了社会偏见的延伸。

医生按下Enter键,人生被AI判了生死

在生死关头,患者失去语言与意识,往往需要靠家属、代理人乃至医师替其做出关键的「是否继续抢救」决定。

但是,现实中我们真的知道患者想要什么吗?这个问题仍然困扰着医疗体系。

就在此时,UW Medicine创伤科研究员Muhammad Aurangzeb Ahmad提出的「AI代理人」(AI surrogate)概念应运而生。


Ahmad所在的创伤科团队,正尝试利用「以往伤情、病史、既往医疗选择、人口学数据」为基本资料,通过机器学习模型预测患者在失去表达能力时如果能选择,会怎么做。

这种研究的逻辑内核,是当患者不能自己说话时,以算法为参照,协助医生、伦理委员会、家属判断「这位患者如果清醒了,他/她会同意继续抢救吗?」

研究团队的目标之一,是实现大约三分之二的预测正确率,并且为模型的运作模拟了流程。

首先,收集患者的伤情严重程度、医学历史、人口统计特征。

之后,将这些变量输入机器学习模型,回顾性地观察模型对历史病例的预测准确度。

团队对模型的未来有着长远的打算:让患者一生与系统互动,记录医患对话、家属短信、生活偏好等文本数据,随着时间不断更新患者的数字档案。


不过,目前该系统仍是一个概念,尚未实际用于病人交互,也未进入决策流程。

正如UW Medicine发言人所说:

在推出前,需要完成多阶段审核。

「让算法帮你决定是否被救」不再是科幻话题,而正在成为医学伦理与AI交叉的新实验场。

算法的盲区:AI预测的不是意愿,而是偏见

「患者的选择」听起来像是个人性化的表达,但在机器学习里,它会被简化成一串概率。

在华盛顿大学的AI代理人项目中,这个概率是靠历史数据喂出来的:谁被抢救过、谁签署过放弃治疗指令、谁在哪种情况下「选择死亡」。

而问题也正出在这里。在医学数据的世界里,没有真正的「中立样本」。

老年人、少数族裔、低收入群体,在既有数据中往往出现更高的放弃治疗比例。

算法从这些模式里学到的「意愿」,其实是社会结构的投影。

医生Emily Moin在接受采访时就指出:

这些决策是动态、情境性的。若你让AI去预测一个昏迷者的意愿,它依赖的只是「方便的真值」,并非真实的地面现实。

她提醒道,AI代理人可能最先被用于「没有家属、无法沟通」的患者——而这样的人群永远无法验证真相。

这意味着,模型无法被校正,也无法证明它有没有偏见。

更危险的是,医院和医生在高压环境下很可能过度信任模型输出。

久而久之,算法就不再只是参考,而成为一种默认答案。


这种「技术性放弃」,在医疗体系中极具诱惑。AI代理人看似在解放医生的心理负担,实际上却在让系统更高效地复制不平等。

研究者Ahmad自己也承认,模型要想真正做到「公平」,不能只看预测结果,而要考虑「患者的道德宇宙」:

两个临床情况相似的患者,一个以宗教为核心,另一个以个人意志为导向。如果算法以相同方式对待他们,就是一种道德抹除。

这场技术实验,表面在探索如何更懂患者,但在底层逻辑里,它其实在问:谁有资格被救,谁又可以被默认放弃。

当人类依赖AI,偏见才真正开始生长

AI代理人并不直接篡夺生死权,它靠的是一种更隐秘的力量——信任。

医生、家属、伦理委员会都在试图逃避那个最难的问题:「该不该救?」而AI正好填补了这份心理真空。

在医院的日常节奏里,医生要处理几十个危重病人,每一次沟通都要耗费巨大的情绪与时间。

AI模型的出现,让一切变得「高效」——它能立刻输出一个判断,一个结论,一种确定感。

于是,那行「模型预测:患者倾向放弃复苏」的文字,开始变成一块伦理的挡箭牌。


Emily Moin说:

如果家属拒绝对话、医生时间不够,所有人都可能默许去看AI的结论

这种默许正是偏见流传的起点。算法的结论看似客观,并因其冷静、快速、无情绪而更具说服力。

慢慢的,人们不再争论、不再怀疑、也不再负责,AI就成了那个最权威、也最无法追责的决策者。

伦理学者Robert Truog警告:

在现实世界里,CPR并不是一个二元问题——几乎所有情况的答案都要看情境。

但AI无法理解「情境」,它只知道「YES」或「NO」。

当医院依赖这种二元逻辑时,灰色地带被挤压,模糊性被视为错误,而确定性被误认为公正。

这就是偏见的第二次生成:第一次发生在算法学习数据时;第二次发生在人们决定相信算法时。

最终,医生得以卸下心理负担,医院获得效率,社会得到一种假象的理性。

代价是,真正的「意愿」被悄悄掩藏在模型里。

人的价值,被写进算法

AI代理人的危险,并不只在于预测错了谁的意愿,而在于——它正在决定什么样的生命更「值得」被拯救。

Ahmad在即将发表的论文中写道:

AI代理人的公平性,不仅是结果平等,更是对患者世界观、宗教、家庭关系的忠实呈现。

他举了一个极具争议的例子:

一名怀孕女性,旧记录显示她曾勾选「不愿意被接上呼吸机」;但如果她后来成为坚守「生命神圣」信念的宗教信徒,那段旧数据就可能被AI误读成她「仍然想被拔管」。

人类代理人或许会替她辩护,而AI不会。

因为在算法的世界里,没有悔悟与改变,有的只是一致性。


Ahmad称,这种一视同仁反而是一种「道德抹除」。

两个临床情况相似的患者,一个以宗教为核心,另一个以个人意志为导向。如果算法以相同方式对待他们,就是一种道德抹除。

那意味着,即便AI看似公平,它也可能在无声地抹去差异。而差异,正是人之为人的起点。

更深层的问题在于:算法的道德水平是谁决定的?是工程师写进去的?是数据统计出来的?还是社会共识默认的?

当AI开始替人发声,它其实在模仿某种特定文化的声音:可能是西方的个人主义、也可能是医疗体系的效率逻辑。

医学伦理学的系统性综述早已指出:

AI若被用于临床伦理决策,包括代理决策,可能提升预测准确性,但同样可能复制既有偏见与不平等。


于是,那些无法被数字化的价值——宗教信仰、家庭伦理、文化差异就被安静地排除在模型之外。

AI看似在预测人的意愿,实则在不断重构「意愿」的定义。

Ahmad在论文结尾写了一句耐人寻味的话:

最公正的AI代理人,不是那个最确定的,而是那个会犹豫、会邀请人类重新讨论的系统。

也许这才是所有讨论的起点——当AI开始学着替人发声,我们更需要重新学会倾听。

在AI代理人的讨论里,人类最常说的一句话是: 「我们只是想让决策更科学一点。」

但科学从来不等于中立。当算法开始学习谁想活、谁想死,它学到的从来不是人的意志,而是社会的态度。

也许真正该被质疑的,从来不是AI能不能预测死亡意愿,而是我们为什么希望有人替我们做这个决定。

AI不会替人赎罪。它不会安慰,也不会承担后果。它只是把人类逃避的那部分——责任、模糊、犹豫整齐地收纳成数据输出。

当医生按下Enter键,当家属点下确认,那一瞬间被释放的,也许不是患者,而是我们自己。

参考资料:

https://arstechnica.com/features/2025/10/should-an-ai-copy-of-you-help-decide-if-you-live-or-die/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
国内将逐渐停止“CT检查”?做完对身体有影响了?一文讲清楚

国内将逐渐停止“CT检查”?做完对身体有影响了?一文讲清楚

白宸侃片
2026-02-16 22:36:56
所有发达国家都有一个共性:人工很贵,劳动很值钱。

所有发达国家都有一个共性:人工很贵,劳动很值钱。

流苏晚晴
2026-01-27 18:18:22
春晚宜宾分会场,空中飞过的“中国红”无人机从自贡起飞

春晚宜宾分会场,空中飞过的“中国红”无人机从自贡起飞

Thurman在昆明
2026-02-16 23:46:22
女老师与学生偷情:一周开房四次使用道具助兴,大量私密细节披露

女老师与学生偷情:一周开房四次使用道具助兴,大量私密细节披露

博士观察
2026-02-15 12:34:22
意甲最新积分战报:帕尔马补时绝杀,那不勒斯丢分,罗马超越尤文

意甲最新积分战报:帕尔马补时绝杀,那不勒斯丢分,罗马超越尤文

足球狗说
2026-02-16 05:49:23
女人这两件事,99%不会告诉男人,100%的男人都不知道

女人这两件事,99%不会告诉男人,100%的男人都不知道

青苹果sht
2026-01-20 05:45:59
你是咋意识到自己没见过世面的?网友:书里的杨桃馋了我二十多年

你是咋意识到自己没见过世面的?网友:书里的杨桃馋了我二十多年

解读热点事件
2025-10-06 00:05:03
比亚迪“大汉”实锤!车长超5米3+后轮转向,30万级D级旗舰

比亚迪“大汉”实锤!车长超5米3+后轮转向,30万级D级旗舰

音乐时光的娱乐
2026-02-17 01:34:06
枪托里的玄学:为什么一把好步枪,得“贴脸”才准?

枪托里的玄学:为什么一把好步枪,得“贴脸”才准?

暗香暗香
2026-02-17 01:41:04
新年祝福天花板,直接照着抄

新年祝福天花板,直接照着抄

户外阿崭
2026-02-16 02:43:47
曼联更衣室力挺马奎尔:球员集体呼吁续约“定海神针”

曼联更衣室力挺马奎尔:球员集体呼吁续约“定海神针”

星耀国际足坛
2026-02-16 22:58:17
热搜爆了,王菲耳环再出圈,同款售价3000元,窦靖童发文

热搜爆了,王菲耳环再出圈,同款售价3000元,窦靖童发文

21世纪经济报道
2026-02-16 23:14:43
河南105岁奶奶给20多个重孙、玄孙发压岁钱,家属:娘家基因好,眼不花耳不聋!

河南105岁奶奶给20多个重孙、玄孙发压岁钱,家属:娘家基因好,眼不花耳不聋!

大象新闻
2026-02-16 23:43:07
台海之战,解放军可能面临一个大麻烦:打不掉台军的指挥系统

台海之战,解放军可能面临一个大麻烦:打不掉台军的指挥系统

东极妙严
2026-02-16 16:54:42
从46败到40胜,冲上联盟第1!NBA最大黑马,成哈登争冠路上绊脚石

从46败到40胜,冲上联盟第1!NBA最大黑马,成哈登争冠路上绊脚石

老侃侃球
2026-02-16 03:30:04
移动总经理何飚调任广电总局副局长,是平调还是重用?

移动总经理何飚调任广电总局副局长,是平调还是重用?

运营商段子手
2026-02-16 00:06:57
英国亿万富翁阿尔菲·贝斯特二世皈依伊斯兰教

英国亿万富翁阿尔菲·贝斯特二世皈依伊斯兰教

达文西看世界
2026-02-10 14:55:04
翟欣欣邻居曝猛料:她被带走时哭疯了,父母跟着落泪,称跟她无关

翟欣欣邻居曝猛料:她被带走时哭疯了,父母跟着落泪,称跟她无关

谈史论天地
2026-01-26 18:40:03
太顶了!明明什么都没露,却性感得要命!

太顶了!明明什么都没露,却性感得要命!

贵圈真乱
2025-12-20 12:02:06
网约车市场历史性崩盘:普通人最后退路,彻底堵死

网约车市场历史性崩盘:普通人最后退路,彻底堵死

流苏晚晴
2026-02-15 18:06:52
2026-02-17 02:56:49
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
14546文章数 66628关注度
往期回顾 全部

科技要闻

阿里除夕发布千问3.5,性能媲美Gemini 3

头条要闻

日方宣称向中方提出交涉 中使馆驳斥

头条要闻

日方宣称向中方提出交涉 中使馆驳斥

体育要闻

全明星正赛美国星辰队夺冠 爱德华兹MVP

娱乐要闻

王菲六登春晚献唱 水滴钻石耳环再出圈

财经要闻

2025,中国商业十大意外,黄金只排第九

汽车要闻

叫停纯屏操作 工信部拟推车内实体操作件强制国标

态度原创

游戏
时尚
家居
旅游
公开课

索尼又背刺PS5Pro用户?独占《战神》新作不支持强化

记录最近收获很大的一次深度链接

家居要闻

中古雅韵 乐韵伴日常

旅游要闻

巨型“彩马”驰骋上海夜空 上千架无人机浪漫烟花交相辉映

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版