网易首页 > 网易号 > 正文 申请入驻

ICU昏迷不醒,AI判决生死!取意愿平均值,细思极恐

0
分享至


新智元报道

编辑:倾倾

【新智元导读】当医生按下Enter键,AI就能决定人的生死!美国华盛顿大学,一项名为「AI代理人」的研究,试图让算法预测昏迷患者的生死意愿。支持者说这是医疗新纪元,反对者担心它只是复制偏见的机器。当AI学会理解生命,人类的怜悯、犹豫与责任,会不会被一串数据取代?

医生还没开口,AI已经替你决定好了——

根据模型预测,该患者倾向于放弃抢救。

这不是电影的剧本,而是美国华盛顿大学正在进行的一项真实研究。

当患者陷入昏迷、无法发声的时候,AI将替他向医生传达是否接受抢救的医院。

实验中,研究人员将其称之为「AI代理人」(AI surrogates)。


这听上去像一场科技的人道主义实验:在生死交界处,让算法解读人类的意愿。

可问题是AI真懂吗?还是它仅仅理解那些与患者相似的数据?

在这个系统的底层,算法并没有「聆听灵魂」,它只是浏览历史病历、人口学特征、医疗选择模式,然后推断:与你相似的人通常如何抉择。

于是,人类的意愿被模型化,个体生命的价值被平均化。

当AI开始预测生死,它做出的已不再是技术判断,反而成了社会偏见的延伸。

医生按下Enter键,人生被AI判了生死

在生死关头,患者失去语言与意识,往往需要靠家属、代理人乃至医师替其做出关键的「是否继续抢救」决定。

但是,现实中我们真的知道患者想要什么吗?这个问题仍然困扰着医疗体系。

就在此时,UW Medicine创伤科研究员Muhammad Aurangzeb Ahmad提出的「AI代理人」(AI surrogate)概念应运而生。


Ahmad所在的创伤科团队,正尝试利用「以往伤情、病史、既往医疗选择、人口学数据」为基本资料,通过机器学习模型预测患者在失去表达能力时如果能选择,会怎么做。

这种研究的逻辑内核,是当患者不能自己说话时,以算法为参照,协助医生、伦理委员会、家属判断「这位患者如果清醒了,他/她会同意继续抢救吗?」

研究团队的目标之一,是实现大约三分之二的预测正确率,并且为模型的运作模拟了流程。

首先,收集患者的伤情严重程度、医学历史、人口统计特征。

之后,将这些变量输入机器学习模型,回顾性地观察模型对历史病例的预测准确度。

团队对模型的未来有着长远的打算:让患者一生与系统互动,记录医患对话、家属短信、生活偏好等文本数据,随着时间不断更新患者的数字档案。


不过,目前该系统仍是一个概念,尚未实际用于病人交互,也未进入决策流程。

正如UW Medicine发言人所说:

在推出前,需要完成多阶段审核。

「让算法帮你决定是否被救」不再是科幻话题,而正在成为医学伦理与AI交叉的新实验场。

算法的盲区:AI预测的不是意愿,而是偏见

「患者的选择」听起来像是个人性化的表达,但在机器学习里,它会被简化成一串概率。

在华盛顿大学的AI代理人项目中,这个概率是靠历史数据喂出来的:谁被抢救过、谁签署过放弃治疗指令、谁在哪种情况下「选择死亡」。

而问题也正出在这里。在医学数据的世界里,没有真正的「中立样本」。

老年人、少数族裔、低收入群体,在既有数据中往往出现更高的放弃治疗比例。

算法从这些模式里学到的「意愿」,其实是社会结构的投影。

医生Emily Moin在接受采访时就指出:

这些决策是动态、情境性的。若你让AI去预测一个昏迷者的意愿,它依赖的只是「方便的真值」,并非真实的地面现实。

她提醒道,AI代理人可能最先被用于「没有家属、无法沟通」的患者——而这样的人群永远无法验证真相。

这意味着,模型无法被校正,也无法证明它有没有偏见。

更危险的是,医院和医生在高压环境下很可能过度信任模型输出。

久而久之,算法就不再只是参考,而成为一种默认答案。


这种「技术性放弃」,在医疗体系中极具诱惑。AI代理人看似在解放医生的心理负担,实际上却在让系统更高效地复制不平等。

研究者Ahmad自己也承认,模型要想真正做到「公平」,不能只看预测结果,而要考虑「患者的道德宇宙」:

两个临床情况相似的患者,一个以宗教为核心,另一个以个人意志为导向。如果算法以相同方式对待他们,就是一种道德抹除。

这场技术实验,表面在探索如何更懂患者,但在底层逻辑里,它其实在问:谁有资格被救,谁又可以被默认放弃。

当人类依赖AI,偏见才真正开始生长

AI代理人并不直接篡夺生死权,它靠的是一种更隐秘的力量——信任。

医生、家属、伦理委员会都在试图逃避那个最难的问题:「该不该救?」而AI正好填补了这份心理真空。

在医院的日常节奏里,医生要处理几十个危重病人,每一次沟通都要耗费巨大的情绪与时间。

AI模型的出现,让一切变得「高效」——它能立刻输出一个判断,一个结论,一种确定感。

于是,那行「模型预测:患者倾向放弃复苏」的文字,开始变成一块伦理的挡箭牌。


Emily Moin说:

如果家属拒绝对话、医生时间不够,所有人都可能默许去看AI的结论

这种默许正是偏见流传的起点。算法的结论看似客观,并因其冷静、快速、无情绪而更具说服力。

慢慢的,人们不再争论、不再怀疑、也不再负责,AI就成了那个最权威、也最无法追责的决策者。

伦理学者Robert Truog警告:

在现实世界里,CPR并不是一个二元问题——几乎所有情况的答案都要看情境。

但AI无法理解「情境」,它只知道「YES」或「NO」。

当医院依赖这种二元逻辑时,灰色地带被挤压,模糊性被视为错误,而确定性被误认为公正。

这就是偏见的第二次生成:第一次发生在算法学习数据时;第二次发生在人们决定相信算法时。

最终,医生得以卸下心理负担,医院获得效率,社会得到一种假象的理性。

代价是,真正的「意愿」被悄悄掩藏在模型里。

人的价值,被写进算法

AI代理人的危险,并不只在于预测错了谁的意愿,而在于——它正在决定什么样的生命更「值得」被拯救。

Ahmad在即将发表的论文中写道:

AI代理人的公平性,不仅是结果平等,更是对患者世界观、宗教、家庭关系的忠实呈现。

他举了一个极具争议的例子:

一名怀孕女性,旧记录显示她曾勾选「不愿意被接上呼吸机」;但如果她后来成为坚守「生命神圣」信念的宗教信徒,那段旧数据就可能被AI误读成她「仍然想被拔管」。

人类代理人或许会替她辩护,而AI不会。

因为在算法的世界里,没有悔悟与改变,有的只是一致性。


Ahmad称,这种一视同仁反而是一种「道德抹除」。

两个临床情况相似的患者,一个以宗教为核心,另一个以个人意志为导向。如果算法以相同方式对待他们,就是一种道德抹除。

那意味着,即便AI看似公平,它也可能在无声地抹去差异。而差异,正是人之为人的起点。

更深层的问题在于:算法的道德水平是谁决定的?是工程师写进去的?是数据统计出来的?还是社会共识默认的?

当AI开始替人发声,它其实在模仿某种特定文化的声音:可能是西方的个人主义、也可能是医疗体系的效率逻辑。

医学伦理学的系统性综述早已指出:

AI若被用于临床伦理决策,包括代理决策,可能提升预测准确性,但同样可能复制既有偏见与不平等。


于是,那些无法被数字化的价值——宗教信仰、家庭伦理、文化差异就被安静地排除在模型之外。

AI看似在预测人的意愿,实则在不断重构「意愿」的定义。

Ahmad在论文结尾写了一句耐人寻味的话:

最公正的AI代理人,不是那个最确定的,而是那个会犹豫、会邀请人类重新讨论的系统。

也许这才是所有讨论的起点——当AI开始学着替人发声,我们更需要重新学会倾听。

在AI代理人的讨论里,人类最常说的一句话是: 「我们只是想让决策更科学一点。」

但科学从来不等于中立。当算法开始学习谁想活、谁想死,它学到的从来不是人的意志,而是社会的态度。

也许真正该被质疑的,从来不是AI能不能预测死亡意愿,而是我们为什么希望有人替我们做这个决定。

AI不会替人赎罪。它不会安慰,也不会承担后果。它只是把人类逃避的那部分——责任、模糊、犹豫整齐地收纳成数据输出。

当医生按下Enter键,当家属点下确认,那一瞬间被释放的,也许不是患者,而是我们自己。

参考资料:

https://arstechnica.com/features/2025/10/should-an-ai-copy-of-you-help-decide-if-you-live-or-die/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
“妈妈,你下面怎么有胡子”?妈妈给出的答案,值得我们学习

“妈妈,你下面怎么有胡子”?妈妈给出的答案,值得我们学习

大果小果妈妈
2025-10-23 13:32:33
71岁大妈因肝衰去世,虽生活规律爱喝茶,丈夫多次劝告未果

71岁大妈因肝衰去世,虽生活规律爱喝茶,丈夫多次劝告未果

原来仙女不讲理
2025-11-04 22:11:19
42-36!梅西力压C罗!赛季轰42球,冲击900球+带队晋级

42-36!梅西力压C罗!赛季轰42球,冲击900球+带队晋级

乌龙球OwnGoal
2025-11-04 09:17:43
蒋介石败逃台湾之前,谁在掌管台湾,为啥老蒋一去他要拱手奉上?

蒋介石败逃台湾之前,谁在掌管台湾,为啥老蒋一去他要拱手奉上?

鹤羽说个事
2025-10-27 15:55:30
这个状元怎么了?才25岁啊,得分生涯最低,命中率生涯最低

这个状元怎么了?才25岁啊,得分生涯最低,命中率生涯最低

球毛鬼胎
2025-11-04 18:23:43
“立冬4不吃,病就不找来!”11月7立冬,哪4不吃?应时节乐过冬

“立冬4不吃,病就不找来!”11月7立冬,哪4不吃?应时节乐过冬

爱生活的陶哥
2025-11-03 10:08:47
官二代高速上殴打宝马车主,一小时后被十几辆装甲车包围

官二代高速上殴打宝马车主,一小时后被十几辆装甲车包围

历史八卦社
2024-09-14 16:48:46
两岸统一为啥迫在眉睫?再晚了台湾就“新加坡化”了,等不及了!

两岸统一为啥迫在眉睫?再晚了台湾就“新加坡化”了,等不及了!

窥史
2025-10-10 19:33:51
海上发射鼻祖、“俄罗斯版SpaceX”完成破产清算

海上发射鼻祖、“俄罗斯版SpaceX”完成破产清算

航天界
2025-11-04 23:07:27
买或不买,都请痛快点!印尼还在犹豫,中国歼10不缺这一个买家!

买或不买,都请痛快点!印尼还在犹豫,中国歼10不缺这一个买家!

叹知
2025-11-03 20:12:32
广东全运大胜山东仍存隐忧 被陶汉林打穿内线遇韩德君周琦咋办?

广东全运大胜山东仍存隐忧 被陶汉林打穿内线遇韩德君周琦咋办?

大嘴爵爷侃球
2025-11-04 22:50:11
广州:拟于明年大年初一继续举办烟花汇演

广州:拟于明年大年初一继续举办烟花汇演

鲁中晨报
2025-11-04 22:19:03
老实的家长,根本接触不到小学的这些真相!

老实的家长,根本接触不到小学的这些真相!

好爸育儿
2025-10-29 08:40:03
刘翔近况大揭秘:长期在国外旅游,靠终身合同吸金,远离喷子!

刘翔近况大揭秘:长期在国外旅游,靠终身合同吸金,远离喷子!

仙味少女心
2025-11-03 18:29:22
安帅:内马尔能力很强,但我不会带缺比赛强度的球员去世界杯

安帅:内马尔能力很强,但我不会带缺比赛强度的球员去世界杯

懂球帝
2025-11-04 13:15:07
义务教育年限要延长了!学前还是高中?影响几何?

义务教育年限要延长了!学前还是高中?影响几何?

21世纪经济报道
2025-11-03 21:25:39
果然不出中国所料:刚回到国内,特朗普就收到坏消息,太尴尬了

果然不出中国所料:刚回到国内,特朗普就收到坏消息,太尴尬了

沈言论
2025-11-04 22:50:03
2-1到3-0!拜仁杀疯了,欧冠大战巴黎,冲16连胜纪录,172亿对决

2-1到3-0!拜仁杀疯了,欧冠大战巴黎,冲16连胜纪录,172亿对决

侃球熊弟
2025-11-04 06:05:02
朝鲜女子怀孕,确认是志愿军连长所为,团长批示了8个字

朝鲜女子怀孕,确认是志愿军连长所为,团长批示了8个字

兰姐说故事
2025-09-17 10:10:06
已经退休的“飞天将军”聂海胜,如今过着怎样的生活?

已经退休的“飞天将军”聂海胜,如今过着怎样的生活?

粤语音乐喷泉
2025-11-04 07:20:43
2025-11-04 23:39:00
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
13785文章数 66237关注度
往期回顾 全部

科技要闻

硅谷甄嬛传:奥特曼优雅挑衅马斯克狠狠回击

头条要闻

男子被警方扣押1000万元无罪后申诉要求返还 警方回应

头条要闻

男子被警方扣押1000万元无罪后申诉要求返还 警方回应

体育要闻

27岁热刺门将,夺冠后退役当导演

娱乐要闻

爸爸去哪儿6孩子现状,个个不同

财经要闻

马斯克"万亿薪酬"计划,突爆重大利空

汽车要闻

把海岸诗意织进日常 法拉利Amalfi重塑超跑生活方式

态度原创

房产
亲子
本地
公开课
军事航空

房产要闻

信达·繁花里 | 老照片征集活动 温情启幕

亲子要闻

幼儿园免费背后藏着影响每个家庭的人口危机。

本地新闻

秋颜悦色 | 在榆中,秋天是一场盛大的视觉交响

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

俄最新核潜艇下水 可搭载“末日鱼雷”

无障碍浏览 进入关怀版